論文の概要: Uncovering an Attractiveness Bias in Multimodal Large Language Models: A Case Study with LLaVA
- arxiv url: http://arxiv.org/abs/2504.16104v1
- Date: Wed, 16 Apr 2025 16:02:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:52.830166
- Title: Uncovering an Attractiveness Bias in Multimodal Large Language Models: A Case Study with LLaVA
- Title(参考訳): マルチモーダル大言語モデルにおける難易度バイアスの発見:LLaVAを用いた事例研究
- Authors: Aditya Gulati, Moreno D'Incà, Nicu Sebe, Bruno Lepri, Nuria Oliver,
- Abstract要約: マルチモーダル大言語モデル(MLLM)による評価と意思決定において魅力が果たす役割について検討する。
分析の結果,MLLMが行う決定には,80%以上のシナリオで魅力が影響していることが判明した。
性別、年齢、人種の偏見をそれぞれ83%、73%、57%のシナリオで明らかにしました。
- 参考スコア(独自算出の注目度): 51.590283139444814
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Physical attractiveness matters. It has been shown to influence human perception and decision-making, often leading to biased judgments that favor those deemed attractive in what is referred to as "the attractiveness halo effect". While extensively studied in human judgments in a broad set of domains, including hiring, judicial sentencing or credit granting, the role that attractiveness plays in the assessments and decisions made by multimodal large language models (MLLMs) is unknown. To address this gap, we conduct an empirical study using 91 socially relevant scenarios and a diverse dataset of 924 face images, corresponding to 462 individuals both with and without beauty filters applied to them, evaluated on LLaVA, a state-of-the-art, open source MLLM. Our analysis reveals that attractiveness impacts the decisions made by the MLLM in over 80% of the scenarios, demonstrating substantial bias in model behavior in what we refer to as an attractiveness bias. Similarly to humans, we find empirical evidence of the existence of the attractiveness halo effect, such that more attractive individuals are more likely to be attributed positive traits, such as intelligence or confidence, by the MLLM. Furthermore, we uncover a gender, age and race bias in 83%, 73% and 57% of the scenarios, respectively, which is impacted by attractiveness, particularly in the case of gender, highlighting the intersectional nature of the attractiveness bias. Our findings suggest that societal stereotypes and cultural norms intersect with perceptions of attractiveness, amplifying or mitigating this bias in multimodal generative AI models in a complex way. Our work emphasizes the need to account for intersectionality in algorithmic bias detection and mitigation efforts and underscores the challenges of addressing bias in modern multimodal large language models.
- Abstract(参考訳): 身体的な魅力は重要です。
人間の知覚と意思決定に影響を与えることが示されており、しばしば「魅力的なハロ効果」と呼ばれるものを好む偏見のある判断につながる。
雇用、司法判決、信用付与を含む幅広い領域において、人間の判断において広範囲に研究されているが、多モーダル大言語モデル(MLLM)による評価や決定において、魅力が果たす役割は分かっていない。
このギャップに対処するために、91の社会的関連シナリオと924の顔画像の多様なデータセットを用いて、美容フィルタと美容フィルタを併用した462人の個人を対象に、実験的検討を行い、最先端のオープンソースMLLMであるLLaVAを用いて評価した。
分析の結果, 魅力がMLLMの決定に80%以上のシナリオで影響を与え, モデル行動に実質的なバイアスが生じることがわかった。
人間と同様に、より魅力的な個人は、MLLMによって、知性や自信などの肯定的な特性に起因する可能性が高いという、魅力的なハロ効果の存在の実証的な証拠を見出す。
さらに,83%,73%,57%のシナリオにおいて,性別,年齢,人種の偏見が明らかとなり,特にジェンダーの場合の魅力の影響を受け,魅力の偏見の交叉性を強調した。
以上の結果から, 社会的ステレオタイプや文化規範は, 多モーダル生成型AIモデルにおいて, このバイアスを複雑に増幅あるいは緩和し, 魅力の知覚と交差することが明らかとなった。
我々の研究は、アルゴリズムによるバイアス検出と緩和の取り組みにおける交叉性を考慮する必要性を強調し、現代の多モーダル大言語モデルにおけるバイアスに対処する課題を浮き彫りにしている。
関連論文リスト
- The LLM Wears Prada: Analysing Gender Bias and Stereotypes through Online Shopping Data [8.26034886618475]
本研究では,オンラインショッピング履歴のみに基づいて,大規模言語モデルが個人の性別を予測できるかどうかを検討する。
米国ユーザーのオンライン購入履歴のデータセットを用いて、性別を分類する6つのLCMの能力を評価する。
結果は、モデルが適度な精度で性別を推測できる一方で、その決定は製品カテゴリーと性別のステレオタイプ的関連に根ざしていることを示している。
論文 参考訳(メタデータ) (2025-04-02T17:56:08Z) - The Root Shapes the Fruit: On the Persistence of Gender-Exclusive Harms in Aligned Language Models [58.130894823145205]
我々はトランスジェンダー、ノンバイナリ、その他のジェンダー・ディバースのアイデンティティを中心とし、アライメント手順が既存のジェンダー・ディバースバイアスとどのように相互作用するかを検討する。
以上の結果から,DPO対応モデルは特に教師付き微調整に敏感であることが示唆された。
DPOとより広範なアライメントプラクティスに合わせたレコメンデーションで締めくくります。
論文 参考訳(メタデータ) (2024-11-06T06:50:50Z) - Revealing and Reducing Gender Biases in Vision and Language Assistants (VLAs) [82.57490175399693]
画像・テキスト・ビジョン言語アシスタント(VLA)22種における性別バイアスの検討
以上の結果から,VLAは実世界の作業不均衡など,データ中の人間のバイアスを再現する可能性が示唆された。
これらのモデルにおける性別バイアスを排除するため、微調整に基づくデバイアス法は、デバイアス化と性能維持の最良のトレードオフを実現する。
論文 参考訳(メタデータ) (2024-10-25T05:59:44Z) - GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - Locating and Mitigating Gender Bias in Large Language Models [40.78150878350479]
大規模言語モデル(LLM)は、人間の好みを含む事実や人間の認知を学ぶために、広範囲なコーパスで事前訓練されている。
このプロセスは、社会においてバイアスや一般的なステレオタイプを取得するこれらのモデルに必然的に導かれる可能性がある。
本稿では,職業代名詞の性別バイアスを軽減する知識編集手法LSDMを提案する。
論文 参考訳(メタデータ) (2024-03-21T13:57:43Z) - Investigating Bias Representations in Llama 2 Chat via Activation
Steering [0.0]
我々は、アクティベーションステアリングを使用して、性別、人種、宗教に関連するバイアスを調査し、緩和します。
以上の結果から,Llama 2 7B Chatの性差は,Reinforcement Learning from Human Feedback以降も持続することが明らかとなった。
この作業は、大規模言語モデルの効果的な再チーム戦略に関する貴重な洞察も提供する。
論文 参考訳(メタデータ) (2024-02-01T07:48:50Z) - Identifying and examining machine learning biases on Adult dataset [0.7856362837294112]
この研究は、エンサンブルラーニングによる機械学習モデルバイアスの低減を念頭に置いている。
我々の厳密な方法論は、様々なカテゴリー変数にまたがる偏見を包括的に評価し、最終的に顕著な男女属性偏見を明らかにします。
本研究は,データ駆動型社会における倫理的考察とハイブリッドモデルの実現を提唱する。
論文 参考訳(メタデータ) (2023-10-13T19:41:47Z) - The Unequal Opportunities of Large Language Models: Revealing
Demographic Bias through Job Recommendations [5.898806397015801]
大規模言語モデル(LLM)における人口統計バイアスの分析と比較のための簡易な手法を提案する。
本稿では,ChatGPTとLLaMAの交差バイアスを計測し,本手法の有効性を示す。
両モデルとも、メキシコ労働者の低賃金雇用を一貫して示唆するなど、さまざまな人口統計学的アイデンティティに対する偏見を識別する。
論文 参考訳(メタデータ) (2023-08-03T21:12:54Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。