論文の概要: Multimodal Political Bias Identification and Neutralization
- arxiv url: http://arxiv.org/abs/2506.17372v1
- Date: Fri, 20 Jun 2025 16:03:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.39049
- Title: Multimodal Political Bias Identification and Neutralization
- Title(参考訳): マルチモーダル政治バイアスの同定と中性化
- Authors: Cedric Bernard, Xavier Pleimling, Amun Kharel, Chase Vickery,
- Abstract要約: 政治的反響室の存在により、政治記事のテキストや画像から主観的偏見を検出し、排除することが義務づけられる。
4つのステップからなるテキストと画像のバイアスを利用するモデルを提案する。
これまでの結果は、この手法が有望であることを示しており、テキストの曖昧化戦略は、多くの潜在的なバイアスのある単語やフレーズを識別することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the presence of political echo chambers, it becomes imperative to detect and remove subjective bias and emotionally charged language from both the text and images of political articles. However, prior work has focused on solely the text portion of the bias rather than both the text and image portions. This is a problem because the images are just as powerful of a medium to communicate information as text is. To that end, we present a model that leverages both text and image bias which consists of four different steps. Image Text Alignment focuses on semantically aligning images based on their bias through CLIP models. Image Bias Scoring determines the appropriate bias score of images via a ViT classifier. Text De-Biasing focuses on detecting biased words and phrases and neutralizing them through BERT models. These three steps all culminate to the final step of debiasing, which replaces the text and the image with neutralized or reduced counterparts, which for images is done by comparing the bias scores. The results so far indicate that this approach is promising, with the text debiasing strategy being able to identify many potential biased words and phrases, and the ViT model showcasing effective training. The semantic alignment model also is efficient. However, more time, particularly in training, and resources are needed to obtain better results. A human evaluation portion was also proposed to ensure semantic consistency of the newly generated text and images.
- Abstract(参考訳): 政治的反響室の存在により、政治的記事のテキストと画像の両方から主観的偏見と感情的に荷電した言語を検出・除去することが義務づけられる。
しかし、以前の研究は、テキスト部分と画像部分の両方ではなく、バイアスのテキスト部分のみに焦点を当てていた。
これは、画像が媒体と同じくらい強力で、テキストのように情報を伝達するからである。
そこで本研究では,4つのステップからなるテキストと画像のバイアスを両立させるモデルを提案する。
Image Text Alignmentは、CLIPモデルによるバイアスに基づいたイメージのセマンティックアライメントにフォーカスしている。
Image Bias Scoringは、ViT分類器を介して画像の適切なバイアススコアを決定する。
Text De-Biasingは、バイアスのある単語やフレーズを検出し、BERTモデルを通じてそれらを中和することに焦点を当てている。
これら3つのステップはすべて、テキストとイメージを中和または縮小したものに置き換えるデバイアスの最終的なステップに終止符を打つ。
これまでの結果は、この手法が有望であることを示しており、テキストデバイアス戦略は、多くの潜在的なバイアスのある単語やフレーズを識別し、ViTモデルは効果的なトレーニングを示す。
セマンティックアライメントモデルも効率的です。
しかし、より長い時間、特に訓練において、より良い結果を得るためにはリソースが必要である。
また、新たに生成されたテキストと画像のセマンティック一貫性を確保するために、人的評価部分も提案された。
関連論文リスト
- Debiasing Vison-Language Models with Text-Only Training [15.069736314663352]
視覚バイアスを軽減するために,テキスト・アズ・イメージ・トレーニング・パラダイムを活用するTODというテキスト・オン・デバイアス・フレームワークを提案する。
そこで本研究では,テキスト・アズ・イメージ・トレーニングのパラダイムを活用し,視覚バイアスを緩和するテキスト・オン・デバイアス化フレームワークTODを提案する。
論文 参考訳(メタデータ) (2024-10-12T04:34:46Z) - When Text and Images Don't Mix: Bias-Correcting Language-Image Similarity Scores for Anomaly Detection [35.09035417676343]
テキスト入力の埋め込みは、モデルの対照的な訓練目標とは対照的に、画像埋め込みから遠ざかって、予期せず密集していることを示す。
本稿では,この類似性バイアスを補助的,外部的なテキスト入力を用いて直接考慮するBLISSという手法を提案する。
論文 参考訳(メタデータ) (2024-07-24T08:20:02Z) - Mismatch Quest: Visual and Textual Feedback for Image-Text Misalignment [64.49170817854942]
本稿では,検出されたテキストと画像のペア間の相違点の詳細な説明を行う。
我々は、大きな言語モデルと視覚的接地モデルを活用して、与えられた画像に対して妥当なキャプションを保持するトレーニングセットを自動構築する。
また,テキストと視覚的ミスアライメントアノテーションを組み合わせた新たな人為的なテストセットも公開する。
論文 参考訳(メタデータ) (2023-12-05T20:07:34Z) - Mitigating Test-Time Bias for Fair Image Retrieval [18.349154934096784]
我々は、中立なテキストクエリにより、公平で偏りのない画像検索結果を生成するという課題に対処する。
本稿では,事前学習した視覚言語モデルから出力を後処理する簡単な手法であるポストホックバイアス緩和手法を提案する。
提案手法は,テキストによる画像検索結果において,既存の様々なバイアス軽減手法と比較して,最も低いバイアスを実現する。
論文 参考訳(メタデータ) (2023-05-23T21:31:16Z) - Discovering and Mitigating Visual Biases through Keyword Explanation [66.71792624377069]
視覚バイアスをキーワードとして解釈するBias-to-Text(B2T)フレームワークを提案する。
B2Tは、CelebAの性別バイアス、ウォーターバードの背景バイアス、ImageNet-R/Cの分布シフトなど、既知のバイアスを特定することができる。
B2Tは、Dollar StreetやImageNetのような大きなデータセットで、新しいバイアスを明らかにする。
論文 参考訳(メタデータ) (2023-01-26T13:58:46Z) - Image-Specific Information Suppression and Implicit Local Alignment for
Text-based Person Search [61.24539128142504]
テキストベースの人物検索(TBPS)は,問合せテキストが与えられた画像ギャラリーから同一の身元で歩行者画像を検索することを目的とした課題である。
既存の手法の多くは、モダリティ間の微粒な対応をモデル化するために、明示的に生成された局所的な部分に依存している。
TBPSのためのマルチレベルアライメントネットワーク(MANet)を提案する。
論文 参考訳(メタデータ) (2022-08-30T16:14:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。