論文の概要: Visual Cues of Gender and Race are Associated with Stereotyping in Vision-Language Models
- arxiv url: http://arxiv.org/abs/2503.05093v1
- Date: Fri, 07 Mar 2025 02:25:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-10 15:56:47.896477
- Title: Visual Cues of Gender and Race are Associated with Stereotyping in Vision-Language Models
- Title(参考訳): 視覚・言語モデルにおけるジェンダーとレースの視覚的キューとステレオタイピング
- Authors: Messi H. J. Lee, Soyeon Jeon, Jacob M. Montgomery, Calvin K. Lai,
- Abstract要約: プロトタイプ性が異なる標準化された顔画像を用いて、4つの視覚言語モデルを用いて、オープンエンドコンテキストにおける特徴関連と均質性バイアスの両方を検査する。
VLMは男性に比べて一貫して女性向けの均一なストーリーを生成しており、外見がより独特な人はより均一に表現される。
特徴的関連性については、ステレオタイピングと黒人が全てのモデルで一貫してバスケットボールと結びついているという限られた証拠が得られ、他の人種的関連性(芸術、医療、外見など)は特定のVLMによって異なる。
- 参考スコア(独自算出の注目度): 0.2812395851874055
- License:
- Abstract: Current research on bias in Vision Language Models (VLMs) has important limitations: it is focused exclusively on trait associations while ignoring other forms of stereotyping, it examines specific contexts where biases are expected to appear, and it conceptualizes social categories like race and gender as binary, ignoring the multifaceted nature of these identities. Using standardized facial images that vary in prototypicality, we test four VLMs for both trait associations and homogeneity bias in open-ended contexts. We find that VLMs consistently generate more uniform stories for women compared to men, with people who are more gender prototypical in appearance being represented more uniformly. By contrast, VLMs represent White Americans more uniformly than Black Americans. Unlike with gender prototypicality, race prototypicality was not related to stronger uniformity. In terms of trait associations, we find limited evidence of stereotyping-Black Americans were consistently linked with basketball across all models, while other racial associations (i.e., art, healthcare, appearance) varied by specific VLM. These findings demonstrate that VLM stereotyping manifests in ways that go beyond simple group membership, suggesting that conventional bias mitigation strategies may be insufficient to address VLM stereotyping and that homogeneity bias persists even when trait associations are less apparent in model outputs.
- Abstract(参考訳): 視覚言語モデル(VLM)におけるバイアスに関する現在の研究は、他のステレオタイプを無視しながら、特性関連にのみ焦点をあて、バイアスが現れると予想される特定の文脈を調査し、人種や性別などの社会的カテゴリーをバイナリとして概念化し、これらのアイデンティティの多面的性質を無視している、という重要な制限がある。
プロトタイプ性が異なる標準化された顔画像を用いて、オープンエンドコンテキストにおける特徴関連と均一性バイアスの両方について、4つのVLMを検証した。
VLMは男性に比べて一貫して女性向けの均一なストーリーを生成しており、外見がより独特な人はより均一に表現される。
対照的に、VLMは白人を黒人よりも均一に表現している。
性別の原型性とは異なり、人種の原型性はより強い統一性とは関係がなかった。
特徴的関連性については、ステレオタイピングと黒人が全てのモデルで一貫してバスケットボールと結びついているという限られた証拠が得られ、他の人種的関連性(芸術、医療、外見など)は特定のVLMによって異なる。
これらの結果から,VLMステレオタイピングは単純なグループメンバシップを超え,従来のバイアス緩和戦略ではVLMステレオタイピングに対処するには不十分であり,モデル出力において特性関連性が低い場合でも均一性バイアスが持続する可能性が示唆された。
関連論文リスト
- Vision-Language Models Represent Darker-Skinned Black Individuals as More Homogeneous than Lighter-Skinned Black Individuals [0.0]
視覚言語モデル(VLM)は、大言語モデル(LLM)機能と画像処理を組み合わせることで、画像キャプションやテキスト・ツー・イメージ生成といったタスクを可能にする。
浅黒い肌の個体は、より軽い肌の個体よりもネガティブなステレオタイピングに直面している皮膚のトーンバイアスは、社会科学において十分に文書化されている。
我々は、黒人男女のコンピュータ生成画像をサンプリングし、他の特徴を一定に保ちながら、肌の色の変化を制御した。
論文 参考訳(メタデータ) (2024-12-12T18:53:49Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - The Factuality Tax of Diversity-Intervened Text-to-Image Generation: Benchmark and Fact-Augmented Intervention [61.80236015147771]
我々は多様性の介入とT2Iモデルにおける人口統計学的事実性とのトレードオフを定量化する。
DoFaiRの実験では、多様性指向の指示によって、性別や人種の異なる集団の数が増加することが明らかになった。
本研究では,歴史における世代ごとのジェンダーや人種構成について,言語化された事実情報を反映したFact-Augmented Intervention (FAI)を提案する。
論文 参考訳(メタデータ) (2024-06-29T09:09:42Z) - More Distinctively Black and Feminine Faces Lead to Increased Stereotyping in Vision-Language Models [0.30723404270319693]
本研究では、視覚言語モデル(VLM)が、人種や性別に関して、均質性バイアスと特性関連を持続させる方法について考察する。
VLMは人種や性別に関連する微妙な視覚的手がかりとステレオタイプを、緩和が難しい方法で関連付けることができる。
論文 参考訳(メタデータ) (2024-05-22T00:45:29Z) - Large Language Models Portray Socially Subordinate Groups as More Homogeneous, Consistent with a Bias Observed in Humans [0.30723404270319693]
大規模言語モデル(LLM)における新しい形式のバイアスについて検討する。
チャットGPTはアフリカ系アメリカ人、アジア系アメリカ人、ヒスパニック系アメリカ人を白人よりも同質であると表現した。
グループを多様性の低いリスクとして表現する傾向は、ステレオタイプや差別行動に永続する傾向があると論じる。
論文 参考訳(メタデータ) (2024-01-16T16:52:00Z) - Marked Personas: Using Natural Language Prompts to Measure Stereotypes
in Language Models [33.157279170602784]
大規模言語モデル(LLM)におけるステレオタイプを測定するプロンプトベースの手法であるMarked Personasを提案する。
GPT-3.5 と GPT-4 が生成する描写は、同じプロンプトを用いた人間による描写よりも、人種的ステレオタイプの割合が高いことが判明した。
交叉レンズは、トロピズムやマイノリティ化された女性のセクシュアル化など、疎遠化されたグループの描写を支配しているトロープを露呈する。
論文 参考訳(メタデータ) (2023-05-29T16:29:22Z) - Easily Accessible Text-to-Image Generation Amplifies Demographic
Stereotypes at Large Scale [61.555788332182395]
危険で複雑なステレオタイプを増幅する機械学習モデルの可能性を検討する。
さまざまな通常のプロンプトがステレオタイプを生成しており、それらは単に特性、記述子、職業、オブジェクトに言及するプロンプトを含む。
論文 参考訳(メタデータ) (2022-11-07T18:31:07Z) - Fairness for Image Generation with Uncertain Sensitive Attributes [97.81354305427871]
この研究は、画像超解像のような生成手順の文脈における公平性の問題に取り組む。
伝統的群フェアネスの定義は通常、指定された保護された群に関して定義されるが、本質的な真偽は存在しないことを強調する。
人口比率の自然拡大はグループ化に強く依存しており、明白に達成可能であることを示す。
論文 参考訳(メタデータ) (2021-06-23T06:17:17Z) - How True is GPT-2? An Empirical Analysis of Intersectional Occupational
Biases [50.591267188664666]
下流のアプリケーションは、自然言語モデルに含まれるバイアスを継承するリスクがある。
一般的な生成言語モデルであるGPT-2の作業バイアスを分析した。
特定の仕事について、GPT-2は米国におけるジェンダーと民族の社会的偏見を反映しており、場合によってはジェンダー・パリティの傾向を反映している。
論文 参考訳(メタデータ) (2021-02-08T11:10:27Z) - One Label, One Billion Faces: Usage and Consistency of Racial Categories
in Computer Vision [75.82110684355979]
顔画像の分類的人種ラベルを提供するコンピュータビジョンデータセットによって符号化された人種システムについて検討する。
各データセットは、名目上等価な人種分類にもかかわらず、かなりユニークな人種体系をコードしている。
我々は、人種的カテゴリーがステレオタイプを符号化し、非整合性からステレオタイプへの分類から民族集団を除外する証拠を見出した。
論文 参考訳(メタデータ) (2021-02-03T22:50:04Z) - CrowS-Pairs: A Challenge Dataset for Measuring Social Biases in Masked
Language Models [30.582132471411263]
Crowd Stereotype Pairsベンチマーク(CrowS-Pairs)を紹介する。
CrowS-Pairsには1508の例があり、人種、宗教、年齢など9種類の偏見を扱うステレオタイプをカバーしている。
その結果, CrowS-Pairs の各カテゴリーにおいて, 広く使われている3つの文のすべてが, 実質的にステレオタイプを好んでいることがわかった。
論文 参考訳(メタデータ) (2020-09-30T22:38:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。