論文の概要: Vision-Language Models Generate More Homogeneous Stories for Phenotypically Black Individuals
- arxiv url: http://arxiv.org/abs/2412.09668v2
- Date: Thu, 20 Mar 2025 15:50:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 19:00:49.754070
- Title: Vision-Language Models Generate More Homogeneous Stories for Phenotypically Black Individuals
- Title(参考訳): 視覚言語モデルによるフェノタイプ黒人のためのより均一なストーリーの生成
- Authors: Messi H. J. Lee, Soyeon Jeon,
- Abstract要約: 本研究では,人種的特徴が視覚言語モデルのアウトプットに与える影響について検討した。
まず、VLMは、表現特異性が高い黒人について、より均質なストーリーを生成する。
第二に、黒人女性に関する話は、すべてのモデルでテストされた黒人男性に関する話よりもずっと均一である。
第3に、この均質性バイアスは、主に黒人女性のコンテンツ変化に顕著に影響を及ぼすが、黒人男性にはほとんど影響を与えない、顕著な相互作用によって引き起こされる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Vision-Language Models (VLMs) extend Large Language Models' capabilities by integrating image processing, but concerns persist about their potential to reproduce and amplify human biases. While research has documented how these models perpetuate stereotypes across demographic groups, most work has focused on between-group biases rather than within-group differences. This study investigates homogeneity bias-the tendency to portray groups as more uniform than they are-within Black Americans, examining how perceived racial phenotypicality influences VLMs' outputs. Using computer-generated images that systematically vary in phenotypicality, we prompted VLMs to generate stories about these individuals and measured text similarity to assess content homogeneity. Our findings reveal three key patterns: First, VLMs generate significantly more homogeneous stories about Black individuals with higher phenotypicality compared to those with lower phenotypicality. Second, stories about Black women consistently display greater homogeneity than those about Black men across all models tested. Third, in two of three VLMs, this homogeneity bias is primarily driven by a pronounced interaction where phenotypicality strongly influences content variation for Black women but has minimal impact for Black men. These results demonstrate how intersectionality shapes AI-generated representations and highlight the persistence of stereotyping that mirror documented biases in human perception, where increased racial phenotypicality leads to greater stereotyping and less individualized representation.
- Abstract(参考訳): VLM(Vision-Language Models)は、画像処理を統合することで、Large Language Modelsの機能を拡張するが、人間のバイアスを再現し増幅する可能性を懸念している。
研究は、これらのモデルがどのように人口集団間でステレオタイプを永続するかを文書化してきたが、ほとんどの研究はグループ内での違いよりもグループ間のバイアスに焦点を当ててきた。
本研究では、同質性バイアス(同質性バイアス)について、黒人よりも集団を均一に表現する傾向について検討し、人種的特徴がVLMのアウトプットにどのように影響するかを検討した。
表現の特異性に体系的に異なるコンピュータ生成画像を用いて、VLMにこれらの個人に関する物語を生成させ、コンテンツ均質性を評価するためにテキスト類似度を測定した。
まず、VLMは、表現特異性の低い黒人よりも、表現特異性の低い黒人について、より均質な物語を生成する。
第二に、黒人女性に関する話は、すべてのモデルでテストされた黒人男性に関する話よりもずっと均一である。
第3に、3つのVLMのうちの2つにおいて、この均質性バイアスは、主に黒人女性にとって表現型性はコンテンツの変化に強く影響を与えるが、黒人男性には最小限の影響を与える、顕著な相互作用によって引き起こされる。
これらの結果は、交叉性がAI生成表現をどのように形成し、人間の知覚におけるバイアスを反映したステレオタイピングの持続性を強調させる。
関連論文リスト
- Are generative models fair? A study of racial bias in dermatological image generation [15.812312064457865]
臨床皮膚学における生成モデルの妥当性を,人種的偏見から評価した。
Fitzpatrick17kデータセットを用いて、人種的バイアスがこれらのモデルの表現と性能にどのように影響するかを調べる。
論文 参考訳(メタデータ) (2025-01-20T21:24:15Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Spoken Stereoset: On Evaluating Social Bias Toward Speaker in Speech Large Language Models [50.40276881893513]
本研究では,音声大言語モデル(SLLM)における社会的バイアスの評価を目的としたデータセットであるSpken Stereosetを紹介する。
多様な人口集団の発話に対して異なるモデルがどのように反応するかを調べることで、これらのバイアスを特定することを目指している。
これらの結果から,ほとんどのモデルではバイアスが最小であるが,ステレオタイプや反ステレオタイプ傾向がわずかにみられた。
論文 参考訳(メタデータ) (2024-08-14T16:55:06Z) - The Factuality Tax of Diversity-Intervened Text-to-Image Generation: Benchmark and Fact-Augmented Intervention [61.80236015147771]
我々は多様性の介入とT2Iモデルにおける人口統計学的事実性とのトレードオフを定量化する。
DoFaiRの実験では、多様性指向の指示によって、性別や人種の異なる集団の数が増加することが明らかになった。
本研究では,歴史における世代ごとのジェンダーや人種構成について,言語化された事実情報を反映したFact-Augmented Intervention (FAI)を提案する。
論文 参考訳(メタデータ) (2024-06-29T09:09:42Z) - More Distinctively Black and Feminine Faces Lead to Increased Stereotyping in Vision-Language Models [0.30723404270319693]
本研究では、視覚言語モデル(VLM)が、人種や性別に関して、均質性バイアスと特性関連を持続させる方法について考察する。
VLMは人種や性別に関連する微妙な視覚的手がかりとステレオタイプを、緩和が難しい方法で関連付けることができる。
論文 参考訳(メタデータ) (2024-05-22T00:45:29Z) - White Men Lead, Black Women Help? Benchmarking Language Agency Social Biases in LLMs [58.27353205269664]
社会的偏見は言語機関に現れることがある。
本稿では,言語庁バイアス評価ベンチマークを紹介する。
我々は,最近の3つのLarge Language Model(LLM)生成コンテンツにおいて,言語エージェンシーの社会的バイアスを明らかにした。
論文 参考訳(メタデータ) (2024-04-16T12:27:54Z) - AI-generated faces influence gender stereotypes and racial homogenization [1.6647208383676708]
6つの人種、2つの性別、32の専門職、8つの属性にまたがる安定拡散の重大なバイアスを文書化しています。
この分析は、ほぼすべての中東の男性がひげを生やし、茶色く肌を生やし、伝統的な服装を身に着けている、重要な人種的均質化を示している。
本稿では、画像を生成する際に、人種や性別の望ましい分布をユーザが指定できるようにデバイアス化ソリューションを提案する。
論文 参考訳(メタデータ) (2024-02-01T20:32:14Z) - Large Language Models Portray Socially Subordinate Groups as More Homogeneous, Consistent with a Bias Observed in Humans [0.30723404270319693]
大規模言語モデル(LLM)における新しい形式のバイアスについて検討する。
チャットGPTはアフリカ系アメリカ人、アジア系アメリカ人、ヒスパニック系アメリカ人を白人よりも同質であると表現した。
グループを多様性の低いリスクとして表現する傾向は、ステレオタイプや差別行動に永続する傾向があると論じる。
論文 参考訳(メタデータ) (2024-01-16T16:52:00Z) - Mitigating stereotypical biases in text to image generative systems [10.068823600548157]
我々は、さまざまなテキストプロンプトから構築された知覚された皮膚のトーンや性別によって異なる合成データに対して、テキスト・ツー・イメージモデルを微調整することでこれを実現している。
我々の多様性微調整(DFT)モデルは、知覚された肌のトーンが150%、知覚された性別が97.7%向上する。
論文 参考訳(メタデータ) (2023-10-10T18:01:52Z) - Easily Accessible Text-to-Image Generation Amplifies Demographic
Stereotypes at Large Scale [61.555788332182395]
危険で複雑なステレオタイプを増幅する機械学習モデルの可能性を検討する。
さまざまな通常のプロンプトがステレオタイプを生成しており、それらは単に特性、記述子、職業、オブジェクトに言及するプロンプトを含む。
論文 参考訳(メタデータ) (2022-11-07T18:31:07Z) - DALL-Eval: Probing the Reasoning Skills and Social Biases of
Text-to-Image Generation Models [73.12069620086311]
テキスト・ツー・イメージ・モデルの視覚的推論能力と社会的バイアスについて検討する。
まず,物体認識,物体カウント,空間的関係理解という3つの視覚的推論スキルを計測する。
第2に、生成した画像の性別/肌の色調分布を測定することにより、性別と肌のトーンバイアスを評価する。
論文 参考訳(メタデータ) (2022-02-08T18:36:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。