論文の概要: When Cars Have Stereotypes: Auditing Demographic Bias in Objects from Text-to-Image Models
- arxiv url: http://arxiv.org/abs/2508.03483v1
- Date: Tue, 05 Aug 2025 14:15:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:56.004294
- Title: When Cars Have Stereotypes: Auditing Demographic Bias in Objects from Text-to-Image Models
- Title(参考訳): 車がステレオタイプを持つとき--テキスト・画像モデルによる物体のデモグラフィックバイアスの検証
- Authors: Dasol Choi Jihwan Lee, Minjae Lee, Minsuk Kahng,
- Abstract要約: このようなバイアスを測定するための新しいフレームワークであるSODA(Stereotyped Object Diagnostic Audit)を紹介する。
提案手法は, 対象物の視覚特性を人口統計学的手がかりと中性プロンプトとを比較した。
性別や民族によって引き起こされる色パターンの反復など、特定の人口集団と視覚特性の強い関連を明らかにする。
- 参考スコア(独自算出の注目度): 4.240144901142787
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While prior research on text-to-image generation has predominantly focused on biases in human depictions, we investigate a more subtle yet pervasive phenomenon: demographic bias in generated objects (e.g., cars). We introduce SODA (Stereotyped Object Diagnostic Audit), a novel framework for systematically measuring such biases. Our approach compares visual attributes of objects generated with demographic cues (e.g., "for young people'') to those from neutral prompts, across 2,700 images produced by three state-of-the-art models (GPT Image-1, Imagen 4, and Stable Diffusion) in five object categories. Through a comprehensive analysis, we uncover strong associations between specific demographic groups and visual attributes, such as recurring color patterns prompted by gender or ethnicity cues. These patterns reflect and reinforce not only well-known stereotypes but also more subtle and unintuitive biases. We also observe that some models generate less diverse outputs, which in turn amplifies the visual disparities compared to neutral prompts. Our proposed auditing framework offers a practical approach for testing, revealing how stereotypes still remain embedded in today's generative models. We see this as an essential step toward more systematic and responsible AI development.
- Abstract(参考訳): テキスト・ツー・イメージ生成に関する以前の研究は、人間の描写におけるバイアスに主に焦点を合わせてきたが、より微妙に広まる現象、すなわち生成された物体(例えば自動車)の人口統計バイアスを調査した。
本稿では,そのようなバイアスを系統的に測定する新しいフレームワークであるSODA(Stereotyped Object Diagnostic Audit)を紹介する。
提案手法は,3つの最先端モデル(GPT Image-1, Imagen 4, Staable Diffusion)が生成する2,700枚の画像に対して,5つの対象カテゴリにおいて,人口統計的手がかり(例えば「若者のための」)で生成された物体の視覚特性を比較した。
包括的分析により、性別や民族性によって引き起こされる色パターンの繰り返しなど、特定の人口集団と視覚的属性の強い関連を明らかにする。
これらのパターンは、よく知られたステレオタイプだけでなく、より微妙で直観的でないバイアスを反映し、強化する。
また、いくつかのモデルでは出力の多様性が低くなり、それによってニュートラルプロンプトと比較して視覚的差異が増幅される。
提案した監査フレームワークは,テストの実践的なアプローチを提供し,ステレオタイプが今日の生成モデルにどのように組み込まれているかを明らかにする。
私たちはこれを、より体系的で責任あるAI開発に向けた重要なステップと捉えています。
関連論文リスト
- Draw an Ugly Person An Exploration of Generative AIs Perceptions of Ugliness [0.0]
生成AIは人間の創造性を再現するだけでなく、文化的偏見を再現する。
本研究では,4種類の生成AIモデルを用いて,テキストと画像による直感の理解と表現について検討する。
論文 参考訳(メタデータ) (2025-07-16T13:16:56Z) - Using complex prompts to identify fine-grained biases in image generation through ChatGPT-4o [0.0]
バイアスの2つの次元は、大きなAIモデルの研究を通して明らかにすることができる。
トレーニングデータやAIの製品に偏りがあるだけでなく、社会にも偏りがある。
画像生成AIに複雑なプロンプトを使ってバイアスのどちらの次元を調査できるかを簡単に議論する。
論文 参考訳(メタデータ) (2025-04-01T03:17:35Z) - Exploring Bias in over 100 Text-to-Image Generative Models [49.60774626839712]
本稿では,Hugging Faceのようなオープンプラットフォームによるモデルの利用率向上に着目し,テキストから画像への生成モデルにおけるバイアスの傾向について検討する。
我々は, (i) 分布バイアス, (ii) 生成幻覚, (iii) 生成ミスレートの3つの主要な次元にまたがるバイアスを評価する。
以上の結果から, 芸術的モデルとスタイル変換モデルに有意なバイアスが生じる一方で, より広範なトレーニング分布の恩恵を受ける基礎モデルでは, 徐々にバイアスが減っていることが示唆された。
論文 参考訳(メタデータ) (2025-03-11T03:40:44Z) - Autoregressive Models in Vision: A Survey [119.23742136065307]
本調査は、視覚に適用される自己回帰モデルに関する文献を包括的に調査する。
視覚的自己回帰モデルを,画素ベース,トークンベース,スケールベースを含む3つの一般的なサブカテゴリに分割する。
本稿では,画像生成,映像生成,3D生成,マルチモーダル生成など,コンピュータビジョンにおける自己回帰モデルの多面的分類を提案する。
論文 参考訳(メタデータ) (2024-11-08T17:15:12Z) - Human-Object Interaction Detection Collaborated with Large Relation-driven Diffusion Models [65.82564074712836]
テキストと画像の拡散モデルに光を流す新しいHOI検出器であるDIFfusionHOIを紹介する。
まず、埋め込み空間における人間と物体の関係パターンの表現をインバージョンベースで学習する戦略を考案する。
これらの学習された関係埋め込みはテキストのプロンプトとして機能し、スタイア拡散モデルが特定の相互作用を記述する画像を生成する。
論文 参考訳(メタデータ) (2024-10-26T12:00:33Z) - TIBET: Identifying and Evaluating Biases in Text-to-Image Generative Models [22.076898042211305]
我々は、任意のTTIモデルと任意のプロンプトに対して、幅広いバイアススペクトルを研究、定量化するための一般的なアプローチを提案する。
我々の手法は、与えられたプロンプトに関連する可能性のある潜在的なバイアスを自動的に識別し、それらのバイアスを測定する。
本研究では,本手法が意味論的概念を通じて複雑な多次元バイアスを説明できることを示す。
論文 参考訳(メタデータ) (2023-12-03T02:31:37Z) - Language Agents for Detecting Implicit Stereotypes in Text-to-image
Models at Scale [45.64096601242646]
テキスト・ツー・イメージモデルにおけるステレオタイプ検出に適した新しいエージェントアーキテクチャを提案する。
複数のオープンテキストデータセットに基づいたステレオタイプ関連ベンチマークを構築した。
これらのモデルは、個人的特性に関する特定のプロンプトに関して、深刻なステレオタイプを示すことが多い。
論文 参考訳(メタデータ) (2023-10-18T08:16:29Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - Auditing Gender Presentation Differences in Text-to-Image Models [54.16959473093973]
我々は、テキスト・ツー・イメージ・モデルにおいて、ジェンダーがどのように異なる形で提示されるかを研究する。
入力テキスト中の性指標を探索することにより、プレゼンテーション中心属性の周波数差を定量化する。
このような違いを推定する自動手法を提案する。
論文 参考訳(メタデータ) (2023-02-07T18:52:22Z) - Discovering and Mitigating Visual Biases through Keyword Explanation [66.71792624377069]
視覚バイアスをキーワードとして解釈するBias-to-Text(B2T)フレームワークを提案する。
B2Tは、CelebAの性別バイアス、ウォーターバードの背景バイアス、ImageNet-R/Cの分布シフトなど、既知のバイアスを特定することができる。
B2Tは、Dollar StreetやImageNetのような大きなデータセットで、新しいバイアスを明らかにする。
論文 参考訳(メタデータ) (2023-01-26T13:58:46Z) - Easily Accessible Text-to-Image Generation Amplifies Demographic
Stereotypes at Large Scale [61.555788332182395]
危険で複雑なステレオタイプを増幅する機械学習モデルの可能性を検討する。
さまざまな通常のプロンプトがステレオタイプを生成しており、それらは単に特性、記述子、職業、オブジェクトに言及するプロンプトを含む。
論文 参考訳(メタデータ) (2022-11-07T18:31:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。