論文の概要: Vision-Language Models Represent Darker-Skinned Black Individuals as More Homogeneous than Lighter-Skinned Black Individuals
- arxiv url: http://arxiv.org/abs/2412.09668v1
- Date: Thu, 12 Dec 2024 18:53:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-16 15:03:06.754493
- Title: Vision-Language Models Represent Darker-Skinned Black Individuals as More Homogeneous than Lighter-Skinned Black Individuals
- Title(参考訳): 暗い肌の黒個体を、明るい肌の黒個体よりも均一に表現する視覚言語モデル
- Authors: Messi H. J. Lee, Soyeon Jeon,
- Abstract要約: 視覚言語モデル(VLM)は、大言語モデル(LLM)機能と画像処理を組み合わせることで、画像キャプションやテキスト・ツー・イメージ生成といったタスクを可能にする。
浅黒い肌の個体は、より軽い肌の個体よりもネガティブなステレオタイピングに直面している皮膚のトーンバイアスは、社会科学において十分に文書化されている。
我々は、黒人男女のコンピュータ生成画像をサンプリングし、他の特徴を一定に保ちながら、肌の色の変化を制御した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Vision-Language Models (VLMs) combine Large Language Model (LLM) capabilities with image processing, enabling tasks like image captioning and text-to-image generation. Yet concerns persist about their potential to amplify human-like biases, including skin tone bias. Skin tone bias, where darker-skinned individuals face more negative stereotyping than lighter-skinned individuals, is well-documented in the social sciences but remains under-explored in Artificial Intelligence (AI), particularly in VLMs. While well-documented in the social sciences, this bias remains under-explored in AI, particularly in VLMs. Using the GAN Face Database, we sampled computer-generated images of Black American men and women, controlling for skin tone variations while keeping other features constant. We then asked VLMs to write stories about these faces and compared the homogeneity of the generated stories. Stories generated by VLMs about darker-skinned Black individuals were more homogeneous than those about lighter-skinned individuals in three of four models, and Black women were consistently represented more homogeneously than Black men across all models. Interaction effects revealed a greater impact of skin tone on women in two VLMs, while the other two showed nonsignificant results, reflecting known stereotyping patterns. These findings underscore the propagation of biases from single-modality AI systems to multimodal models and highlight the need for further research to address intersectional biases in AI.
- Abstract(参考訳): 視覚言語モデル(VLM)は、大言語モデル(LLM)機能と画像処理を組み合わせることで、画像キャプションやテキスト・ツー・イメージ生成といったタスクを可能にする。
しかし、皮膚のトーンバイアスを含む人間のようなバイアスを増幅する可能性については懸念が続いている。
浅黒い肌の個体は、より軽い肌の個体よりもネガティブなステレオタイピングに直面するが、社会科学では十分に文書化されているが、人工知能(AI)、特にVLMでは未発見のままである。
社会科学ではよく文書化されているが、このバイアスはAI、特にVLMでは未発見のままである。
GAN Face Databaseを用いて、黒人男女のコンピュータ生成画像をサンプリングし、他の特徴を一定に保ちながら肌の色の変化を制御した。
次に、私たちはVLMにこれらの顔に関するストーリーを書くように頼み、生成されたストーリーの均一性を比較しました。
暗い肌の黒人についてVLMが作り出した物語は、4つのモデルのうち3つのモデルの中でより明るい肌の黒人よりも均質であり、黒人女性はすべてのモデルで黒人男性よりも一貫して均質に表現されていた。
相互作用効果は2つのVLMにおいて皮膚のトーンが女性に大きく影響し、他の2つは既知のステレオタイピングパターンを反映して非有意な結果を示した。
これらの結果は、単一のモダリティAIシステムからマルチモーダルモデルへのバイアスの伝播を強調し、AIの交差バイアスに対処するためのさらなる研究の必要性を強調している。
関連論文リスト
- Are generative models fair? A study of racial bias in dermatological image generation [15.812312064457865]
臨床皮膚学における生成モデルの妥当性を,人種的偏見から評価した。
Fitzpatrick17kデータセットを用いて、人種的バイアスがこれらのモデルの表現と性能にどのように影響するかを調べる。
論文 参考訳(メタデータ) (2025-01-20T21:24:15Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Spoken Stereoset: On Evaluating Social Bias Toward Speaker in Speech Large Language Models [50.40276881893513]
本研究では,音声大言語モデル(SLLM)における社会的バイアスの評価を目的としたデータセットであるSpken Stereosetを紹介する。
多様な人口集団の発話に対して異なるモデルがどのように反応するかを調べることで、これらのバイアスを特定することを目指している。
これらの結果から,ほとんどのモデルではバイアスが最小であるが,ステレオタイプや反ステレオタイプ傾向がわずかにみられた。
論文 参考訳(メタデータ) (2024-08-14T16:55:06Z) - The Factuality Tax of Diversity-Intervened Text-to-Image Generation: Benchmark and Fact-Augmented Intervention [61.80236015147771]
我々は多様性の介入とT2Iモデルにおける人口統計学的事実性とのトレードオフを定量化する。
DoFaiRの実験では、多様性指向の指示によって、性別や人種の異なる集団の数が増加することが明らかになった。
本研究では,歴史における世代ごとのジェンダーや人種構成について,言語化された事実情報を反映したFact-Augmented Intervention (FAI)を提案する。
論文 参考訳(メタデータ) (2024-06-29T09:09:42Z) - More Distinctively Black and Feminine Faces Lead to Increased Stereotyping in Vision-Language Models [0.30723404270319693]
本研究では、視覚言語モデル(VLM)が、人種や性別に関して、均質性バイアスと特性関連を持続させる方法について考察する。
VLMは人種や性別に関連する微妙な視覚的手がかりとステレオタイプを、緩和が難しい方法で関連付けることができる。
論文 参考訳(メタデータ) (2024-05-22T00:45:29Z) - White Men Lead, Black Women Help? Benchmarking Language Agency Social Biases in LLMs [58.27353205269664]
社会的偏見は言語機関に現れることがある。
本稿では,言語庁バイアス評価ベンチマークを紹介する。
我々は,最近の3つのLarge Language Model(LLM)生成コンテンツにおいて,言語エージェンシーの社会的バイアスを明らかにした。
論文 参考訳(メタデータ) (2024-04-16T12:27:54Z) - AI-generated faces influence gender stereotypes and racial homogenization [1.6647208383676708]
6つの人種、2つの性別、32の専門職、8つの属性にまたがる安定拡散の重大なバイアスを文書化しています。
この分析は、ほぼすべての中東の男性がひげを生やし、茶色く肌を生やし、伝統的な服装を身に着けている、重要な人種的均質化を示している。
本稿では、画像を生成する際に、人種や性別の望ましい分布をユーザが指定できるようにデバイアス化ソリューションを提案する。
論文 参考訳(メタデータ) (2024-02-01T20:32:14Z) - Large Language Models Portray Socially Subordinate Groups as More Homogeneous, Consistent with a Bias Observed in Humans [0.30723404270319693]
大規模言語モデル(LLM)における新しい形式のバイアスについて検討する。
チャットGPTはアフリカ系アメリカ人、アジア系アメリカ人、ヒスパニック系アメリカ人を白人よりも同質であると表現した。
グループを多様性の低いリスクとして表現する傾向は、ステレオタイプや差別行動に永続する傾向があると論じる。
論文 参考訳(メタデータ) (2024-01-16T16:52:00Z) - Mitigating stereotypical biases in text to image generative systems [10.068823600548157]
我々は、さまざまなテキストプロンプトから構築された知覚された皮膚のトーンや性別によって異なる合成データに対して、テキスト・ツー・イメージモデルを微調整することでこれを実現している。
我々の多様性微調整(DFT)モデルは、知覚された肌のトーンが150%、知覚された性別が97.7%向上する。
論文 参考訳(メタデータ) (2023-10-10T18:01:52Z) - Easily Accessible Text-to-Image Generation Amplifies Demographic
Stereotypes at Large Scale [61.555788332182395]
危険で複雑なステレオタイプを増幅する機械学習モデルの可能性を検討する。
さまざまな通常のプロンプトがステレオタイプを生成しており、それらは単に特性、記述子、職業、オブジェクトに言及するプロンプトを含む。
論文 参考訳(メタデータ) (2022-11-07T18:31:07Z) - DALL-Eval: Probing the Reasoning Skills and Social Biases of
Text-to-Image Generation Models [73.12069620086311]
テキスト・ツー・イメージ・モデルの視覚的推論能力と社会的バイアスについて検討する。
まず,物体認識,物体カウント,空間的関係理解という3つの視覚的推論スキルを計測する。
第2に、生成した画像の性別/肌の色調分布を測定することにより、性別と肌のトーンバイアスを評価する。
論文 参考訳(メタデータ) (2022-02-08T18:36:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。