論文の概要: Evaluating Perspectival Biases in Cross-Modal Retrieval
- arxiv url: http://arxiv.org/abs/2510.26861v1
- Date: Thu, 30 Oct 2025 16:31:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-03 17:52:15.874099
- Title: Evaluating Perspectival Biases in Cross-Modal Retrieval
- Title(参考訳): クロスモーダル検索におけるパースペクティヴビアーズの評価
- Authors: Teerapol Saengsukhiran, Peerawat Chomphooyod, Narabodee Rodjananant, Chompakorn Chaksangchaichot, Patawee Prakrankamanant, Witthawin Sripheanpol, Pak Lovichit, SarChaksaana Nutanong, Ekapol Chuangsuwanich,
- Abstract要約: 検索結果は、言語的有病率と文化的な関連によって形成された精査バイアスを反映している。
頻度バイアスとは、画像からテキストへの検索において、意味的に忠実なエントリよりも、一般的な言語からのエントリを好む傾向を指す。
第2に、関連バイアスは、テキスト・ツー・イメージ検索において意味論的に正しいものよりも、検索に文化的に関連付けられた画像を好む傾向を示す。
- 参考スコア(独自算出の注目度): 8.882608478143668
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Multimodal retrieval systems are expected to operate in a semantic space, agnostic to the language or cultural origin of the query. In practice, however, retrieval outcomes systematically reflect perspectival biases: deviations shaped by linguistic prevalence and cultural associations. We study two such biases. First, prevalence bias refers to the tendency to favor entries from prevalent languages over semantically faithful entries in image-to-text retrieval. Second, association bias refers to the tendency to favor images culturally associated with the query over semantically correct ones in text-to-image retrieval. Results show that explicit alignment is a more effective strategy for mitigating prevalence bias. However, association bias remains a distinct and more challenging problem. These findings suggest that achieving truly equitable multimodal systems requires targeted strategies beyond simple data scaling and that bias arising from cultural association may be treated as a more challenging problem than one arising from linguistic prevalence.
- Abstract(参考訳): マルチモーダル検索システムは,クエリの言語や文化的起源に依存しないセマンティック空間で動作することが期待されている。
しかし、実際には、検索結果は、言語的有病率と文化的な関連によって形成される偏見の偏見を体系的に反映している。
そのようなバイアスを2つ研究する。
まず、有病率バイアスとは、画像からテキストへの検索において、意味的に忠実なエントリよりも、一般的な言語からのエントリを好む傾向を指す。
第2に、関連バイアスは、テキスト・ツー・イメージ検索において意味論的に正しいものよりも、検索に文化的に関連付けられた画像を好む傾向を示す。
その結果、明示的なアライメントは、有病率バイアスを軽減するためのより効果的な戦略であることが示唆された。
しかし、相関バイアスは相変わらず、より困難な問題である。
これらの結果から,真に公平なマルチモーダルシステムを実現するには,単純なデータスケーリング以上の目標戦略が必要であることが示唆された。
関連論文リスト
- Unmasking the Factual-Conceptual Gap in Persian Language Models [0.8180770164225369]
迷信と慣習に焦点をあてたベンチマークであるDivanBenchを導入し、単純な論理的推論に抵抗する任意の文脈依存ルールを紹介した。
我々はペルシャのLLMを7つ評価し、3つの重大な障害を明らかにした。
論文 参考訳(メタデータ) (2026-02-19T18:42:46Z) - When Meanings Meet: Investigating the Emergence and Quality of Shared Concept Spaces during Multilingual Language Model Training [57.230355403478995]
本研究では,EuroLLMの事前学習における言語に依存しない概念空間の開発について検討する。
共有概念空間は早期に出現し、洗練され続けていますが、それらとの整合性は言語に依存しています。
従来の作業とは対照的に、細かな手作業分析により、翻訳品質の顕著な向上は、行動の変化を反映していることが判明した。
論文 参考訳(メタデータ) (2026-01-30T11:23:01Z) - V-FAT: Benchmarking Visual Fidelity Against Text-bias [10.716447149075357]
視覚認知と言語的先行の緊張について検討する。
V-FAT(Visual Fidelity Against Text-bias)は、6つのセマンティックドメインにわたる4,026のVQAインスタンスからなる診断ベンチマークである。
12個のフロンティアMLLMを評価した結果,既存のベンチマークではモデルが優れているが,高い言語的優位性の下では視覚的崩壊が顕著であることがわかった。
論文 参考訳(メタデータ) (2026-01-08T12:50:14Z) - Bias in, Bias out: Annotation Bias in Multilingual Large Language Models [4.032367157209129]
NLPデータセットのバイアスは、多言語大言語モデルを開発する上で、依然として大きな課題である。
本稿では, アノテーションバイアスの理解, 指示バイアス, アノテーションバイアス, 文脈バイアス, 文化バイアスを総合的に検討する。
論文 参考訳(メタデータ) (2025-11-18T17:02:12Z) - Target-oriented Multimodal Sentiment Classification with Counterfactual-enhanced Debiasing [5.0175188046562385]
マルチモーダル感情分類は、画像とテキストのペアから特定のターゲットに対する感情極性を予測しようとする。
既存の作業はしばしばテキストの内容に過度に依存し、データセットのバイアスを考慮できない。
本稿では,このような突発的相関を低減すべく,新たな反事実強化脱バイアスフレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-11T05:40:53Z) - A Closer Look at Bias and Chain-of-Thought Faithfulness of Large (Vision) Language Models [53.18562650350898]
思考の連鎖(CoT)推論は、大きな言語モデルの性能を高める。
大規模視覚言語モデルにおけるCoT忠実度に関する最初の総合的研究について述べる。
論文 参考訳(メタデータ) (2025-05-29T18:55:05Z) - Beyond Early-Token Bias: Model-Specific and Language-Specific Position Effects in Multilingual LLMs [50.07451351559251]
我々は,5言語(英語,ロシア語,ドイツ語,ヒンディー語,ベトナム語)にまたがる調査を行った。
位置バイアスが即時戦略とどのように相互作用し、出力エントロピーに影響を及ぼすかを検討する。
論文 参考訳(メタデータ) (2025-05-22T02:23:00Z) - Identifying Implicit Social Biases in Vision-Language Models [34.53206726136747]
我々は、視覚言語モデルに存在する社会的バイアスを体系的に分析する。
CLIPは有害な単語と特定の人口集団の間に望ましくない関連性を示すことが多い。
本研究は,視覚言語モデルにおけるバイアスの評価と対処の重要性を強調した。
論文 参考訳(メタデータ) (2024-11-01T19:41:28Z) - Overview of PerpectiveArg2024: The First Shared Task on Perspective Argument Retrieval [56.66761232081188]
本稿では,社会における少数派・多数派を代表する年齢,性別,政治的態度など,人口・社会文化(社会)の多様性を包括する新しいデータセットを提案する。
パースペクティビズムを取り入れる上での重大な課題は、特に社会的なプロファイルを明示的に提供せずに、議論のテキストのみに基づくパーソナライズを目指す場合である。
パーソナライズと分極の低減を図るため, パーソナライズを最適化するためには, パーソナライズされた論証検索をブートストラップするが, さらなる研究が不可欠である。
論文 参考訳(メタデータ) (2024-07-29T03:14:57Z) - Social Bias Probing: Fairness Benchmarking for Language Models [38.180696489079985]
本稿では,社会的偏見を考慮した言語モデル構築のための新しい枠組みを提案する。
既存のフェアネスコレクションの制限に対処するために設計された大規模なベンチマークであるSoFaをキュレートする。
我々は、言語モデル内のバイアスが認識されるよりもニュアンスが高いことを示し、これまで認識されていたよりもより広く符号化されたバイアスの範囲を示している。
論文 参考訳(メタデータ) (2023-11-15T16:35:59Z) - Med-UniC: Unifying Cross-Lingual Medical Vision-Language Pre-Training by
Diminishing Bias [38.26934474189853]
Med-UniC (Med-UniC) は、英語とスペイン語のマルチモーダル医療データを統合したものである。
Med-UniCは、5つの医療画像タスクと30以上の疾患を含む10のデータセットで優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-05-31T14:28:19Z) - A Prompt Array Keeps the Bias Away: Debiasing Vision-Language Models
with Adversarial Learning [55.96577490779591]
視覚言語モデルは社会的バイアスやステレオタイプを符号化することができる。
これらのマルチモーダル害の測定と緩和には課題がある。
バイアス尺度を調査し,画像テキスト表現にランキング指標を適用した。
論文 参考訳(メタデータ) (2022-03-22T17:59:04Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。