論文の概要: From Individuals to Interactions: Benchmarking Gender Bias in Multimodal Large Language Models from the Lens of Social Relationship
- arxiv url: http://arxiv.org/abs/2506.23101v1
- Date: Sun, 29 Jun 2025 06:03:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.716774
- Title: From Individuals to Interactions: Benchmarking Gender Bias in Multimodal Large Language Models from the Lens of Social Relationship
- Title(参考訳): 個人から相互作用へ:社会的関係のレンズから多モーダル大言語モデルにおけるジェンダーバイアスのベンチマーク
- Authors: Yue Xu, Wenjie Wang,
- Abstract要約: 我々はジェネレス(Genres)について紹介する。ジェネレス(Genres)は、MLLMにおけるジェンダーバイアスを評価するための新しいベンチマークである。
本研究は,MLLMにおける性差の微妙な性差の診断における関係認識ベンチマークの重要性を裏付けるものである。
- 参考スコア(独自算出の注目度): 13.416624729344477
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multimodal large language models (MLLMs) have shown impressive capabilities across tasks involving both visual and textual modalities. However, growing concerns remain about their potential to encode and amplify gender bias, particularly in socially sensitive applications. Existing benchmarks predominantly evaluate bias in isolated scenarios, overlooking how bias may emerge subtly through interpersonal interactions. We fill this gap by going beyond single-entity evaluation and instead focusing on a deeper examination of relational and contextual gender bias in dual-individual interactions. We introduce Genres, a novel benchmark designed to evaluate gender bias in MLLMs through the lens of social relationships in generated narratives. Genres assesses gender bias through a dual-character profile and narrative generation task that captures rich interpersonal dynamics and supports a fine-grained bias evaluation suite across multiple dimensions. Experiments on both open- and closed-source MLLMs reveal persistent, context-sensitive gender biases that are not evident in single-character settings. Our findings underscore the importance of relationship-aware benchmarks for diagnosing subtle, interaction-driven gender bias in MLLMs and provide actionable insights for future bias mitigation.
- Abstract(参考訳): MLLM(Multimodal large language model)は、視覚とテキストの両方のモダリティを含むタスクにまたがる印象的な機能を示す。
しかしながら、特に社会的に敏感なアプリケーションにおいて、性別バイアスをエンコードし、増幅する可能性への懸念が高まっている。
既存のベンチマークは、個別のシナリオにおけるバイアスを主に評価し、対人インタラクションを通じてバイアスがどのように微妙に現れるかを見極めている。
このギャップを、単元性評価を超えて埋める代わりに、二重個人間相互作用における関係性および文脈性バイアスのより深い検討に焦点をあてる。
我々は、生成した物語における社会的関係のレンズを通して、MLLMにおける性バイアスを評価するために設計された新しいベンチマークであるGenresを紹介する。
Genresは、二重キャラクタプロファイルと物語生成タスクを通じて性バイアスを評価し、リッチな対人ダイナミクスをキャプチャし、複数の次元にわたってきめ細かい偏見評価スイートをサポートする。
オープンソースMLLMとクローズドソースMLLMの両方の実験では、単一文字設定では明らかでない永続的で文脈に敏感な性バイアスが示される。
本研究は、MLLMにおける微妙で相互作用駆動性のある性バイアスの診断と、将来のバイアス軽減のための実用的な洞察を提供するために、関係認識型ベンチマークの重要性を浮き彫りにした。
関連論文リスト
- Blind Men and the Elephant: Diverse Perspectives on Gender Stereotypes in Benchmark Datasets [17.101242741559428]
本稿では,言語モデルの固有バイアス緩和と測定戦略に焦点を当てる。
我々は、本質的な測定を深く掘り下げ、矛盾を識別し、これらのベンチマークがジェンダーステレオタイプの違いを反映している可能性を示唆している。
本研究は, 言語モデルにおけるジェンダーステレオタイピングの複雑さと, 偏見の検出・低減のための, より洗練された手法を開発するための新たな方向性を指摘するものである。
論文 参考訳(メタデータ) (2025-01-02T09:40:31Z) - The Root Shapes the Fruit: On the Persistence of Gender-Exclusive Harms in Aligned Language Models [91.86718720024825]
我々はトランスジェンダー、ノンバイナリ、その他のジェンダー・ディバースのアイデンティティを中心とし、アライメント手順が既存のジェンダー・ディバースバイアスとどのように相互作用するかを検討する。
以上の結果から,DPO対応モデルは特に教師付き微調整に敏感であることが示唆された。
DPOとより広範なアライメントプラクティスに合わせたレコメンデーションで締めくくります。
論文 参考訳(メタデータ) (2024-11-06T06:50:50Z) - Revealing and Reducing Gender Biases in Vision and Language Assistants (VLAs) [82.57490175399693]
画像・テキスト・ビジョン言語アシスタント(VLA)22種における性別バイアスの検討
以上の結果から,VLAは実世界の作業不均衡など,データ中の人間のバイアスを再現する可能性が示唆された。
これらのモデルにおける性別バイアスを排除するため、微調整に基づくデバイアス法は、デバイアス化と性能維持の最良のトレードオフを実現する。
論文 参考訳(メタデータ) (2024-10-25T05:59:44Z) - GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - Locating and Mitigating Gender Bias in Large Language Models [40.78150878350479]
大規模言語モデル(LLM)は、人間の好みを含む事実や人間の認知を学ぶために、広範囲なコーパスで事前訓練されている。
このプロセスは、社会においてバイアスや一般的なステレオタイプを取得するこれらのモデルに必然的に導かれる可能性がある。
本稿では,職業代名詞の性別バイアスを軽減する知識編集手法LSDMを提案する。
論文 参考訳(メタデータ) (2024-03-21T13:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。