論文の概要: Survey of Bias In Text-to-Image Generation: Definition, Evaluation, and Mitigation
- arxiv url: http://arxiv.org/abs/2404.01030v3
- Date: Wed, 1 May 2024 23:58:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-03 21:21:42.725667
- Title: Survey of Bias In Text-to-Image Generation: Definition, Evaluation, and Mitigation
- Title(参考訳): テキスト・画像生成におけるバイアスの実態調査:定義・評価・軽減
- Authors: Yixin Wan, Arjun Subramonian, Anaelia Ovalle, Zongyu Lin, Ashima Suvarna, Christina Chance, Hritik Bansal, Rebecca Pattichis, Kai-Wei Chang,
- Abstract要約: 単純なプロンプトであっても、T2Iモデルは生成された画像に顕著な社会的偏見を示す可能性がある。
本研究は,T2I生成モデルにおけるバイアスに関する最初の広範な調査である。
これらの作業がどのようにしてバイアスの異なる側面を定義し、評価し、緩和するかについて議論する。
- 参考スコア(独自算出の注目度): 47.770531682802314
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The recent advancement of large and powerful models with Text-to-Image (T2I) generation abilities -- such as OpenAI's DALLE-3 and Google's Gemini -- enables users to generate high-quality images from textual prompts. However, it has become increasingly evident that even simple prompts could cause T2I models to exhibit conspicuous social bias in generated images. Such bias might lead to both allocational and representational harms in society, further marginalizing minority groups. Noting this problem, a large body of recent works has been dedicated to investigating different dimensions of bias in T2I systems. However, an extensive review of these studies is lacking, hindering a systematic understanding of current progress and research gaps. We present the first extensive survey on bias in T2I generative models. In this survey, we review prior studies on dimensions of bias: Gender, Skintone, and Geo-Culture. Specifically, we discuss how these works define, evaluate, and mitigate different aspects of bias. We found that: (1) while gender and skintone biases are widely studied, geo-cultural bias remains under-explored; (2) most works on gender and skintone bias investigated occupational association, while other aspects are less frequently studied; (3) almost all gender bias works overlook non-binary identities in their studies; (4) evaluation datasets and metrics are scattered, with no unified framework for measuring biases; and (5) current mitigation methods fail to resolve biases comprehensively. Based on current limitations, we point out future research directions that contribute to human-centric definitions, evaluations, and mitigation of biases. We hope to highlight the importance of studying biases in T2I systems, as well as encourage future efforts to holistically understand and tackle biases, building fair and trustworthy T2I technologies for everyone.
- Abstract(参考訳): OpenAIのDALLE-3やGoogleのGeminiなど、テキスト・ツー・イメージ(T2I)生成機能を備えた大規模で強力なモデルの最近の進歩により、ユーザはテキスト・プロンプトから高品質な画像を生成することができる。
しかし、単純なプロンプトであっても、T2Iモデルが生成した画像に顕著な社会的バイアスを生じさせる可能性がますます高まっている。
このような偏見は、社会における割当と代表の双方の害を招き、さらに少数派を疎外する可能性がある。
この問題に注目して、最近の多くの研究が、T2Iシステムの様々な次元のバイアスの研究に費やされている。
しかし、これらの研究の広範なレビューが欠如しており、現在の進歩と研究ギャップの体系的な理解を妨げている。
本研究は,T2I生成モデルにおけるバイアスに関する最初の広範な調査である。
本稿では, 偏見の次元に関する先行研究, ジェンダー, スキントン, ジオカルチャーについて概説する。
具体的には、これらの研究がどのようにバイアスの異なる側面を定義し、評価し、緩和するかについて議論する。
その結果,(1) 性別とスキントーンの偏見は広く研究されているが,(2) 性別とスキントーンの偏見は未調査であり,(2) 性別とスキントーンの偏見に関する研究はほとんど調査されていない。
現在の限界に基づいて、人間の中心的な定義、評価、偏見の緩和に寄与する今後の研究の方向性を指摘する。
私たちは、T2Iシステムにおけるバイアスを研究することの重要性を強調し、バイアスを理解して対処し、公正で信頼できるT2I技術を誰にとっても構築する将来の取り組みを奨励したいと考えています。
関連論文リスト
- A Critical Review of Predominant Bias in Neural Networks [19.555188118439883]
この2つのバイアスには、永続的で、広範囲にまたがるが、未調査の混乱が存在することが分かりました。
これら2つの偏りの数学的定義を2つ提供し、これらの定義を活用して総合的な論文リストを統一することにより、明確さの回復を目指す。
論文 参考訳(メタデータ) (2025-02-16T07:55:19Z) - Fact-or-Fair: A Checklist for Behavioral Testing of AI Models on Fairness-Related Queries [85.909363478929]
本研究では,権威ある情報源から収集した19の実世界統計に着目した。
主観的および主観的な問合せからなるチェックリストを作成し,大規模言語モデルの振る舞いを解析する。
事実性と公平性を評価するためのメトリクスを提案し、これらの2つの側面の間に固有のトレードオフを正式に証明する。
論文 参考訳(メタデータ) (2025-02-09T10:54:11Z) - Do Existing Testing Tools Really Uncover Gender Bias in Text-to-Image Models? [11.101062595569854]
これまでの研究で、テキスト・トゥ・イメージ(T2I)モデルは、中立的なテキスト・プロンプトが提供されると、性別のステレオタイプを永続的に、あるいは増幅することができることが示されている。
様々な検出器を包括的に比較し、それらによって検出された性別バイアスが実際の状況からどのように逸脱するかを理解する既存の研究は存在しない。
本研究では、手動ラベル付きデータセットを用いて、過去の性差検出器を検証し、T2Iモデルの実際のバイアスから、様々な検出器によって識別されたバイアスがどのように逸脱するかを比較することで、このギャップに対処する。
論文 参考訳(メタデータ) (2025-01-27T04:47:19Z) - How far can bias go? -- Tracing bias from pretraining data to alignment [54.51310112013655]
本研究では, 事前学習データにおける性別占有バイアスと, LLMにおける性別占有バイアスの相関について検討した。
その結果,事前学習データに存在するバイアスがモデル出力に増幅されることが判明した。
論文 参考訳(メタデータ) (2024-11-28T16:20:25Z) - BIGbench: A Unified Benchmark for Social Bias in Text-to-Image Generative Models Based on Multi-modal LLM [8.24274551090375]
画像生成のバイアスの統一ベンチマークであるBIGbenchを紹介する。
既存のベンチマークとは異なり、BIGbenchは4次元にわたるバイアスを分類し評価する。
また, 蒸留効果や無関係な保護属性など, バイアスに関する新たな研究方向を明らかにした。
論文 参考訳(メタデータ) (2024-07-21T18:09:40Z) - FAIntbench: A Holistic and Precise Benchmark for Bias Evaluation in Text-to-Image Models [7.30796695035169]
FAIntbenchは、テキスト・トゥ・イメージ(T2I)モデルにおけるバイアスの総合的かつ正確なベンチマークである。
我々はFAIntbenchを7種類の大規模T2Iモデルの評価に適用し,人間による評価を行った。
その結果, FAIntbenchが種々のバイアスの同定に有効であった。
論文 参考訳(メタデータ) (2024-05-28T04:18:00Z) - The Male CEO and the Female Assistant: Evaluation and Mitigation of Gender Biases in Text-To-Image Generation of Dual Subjects [58.27353205269664]
本稿では,Paired Stereotype Test (PST) フレームワークを提案する。
PSTクエリT2Iモデルは、男性ステレオタイプと女性ステレオタイプに割り当てられた2つの個人を描写する。
PSTを用いて、ジェンダーバイアスの2つの側面、つまり、ジェンダーの職業におけるよく知られたバイアスと、組織力におけるバイアスという新しい側面を評価する。
論文 参考訳(メタデータ) (2024-02-16T21:32:27Z) - Quantifying Bias in Text-to-Image Generative Models [49.60774626839712]
テキスト・トゥ・イメージ(T2I)モデルにおけるバイアスは不公平な社会的表現を伝播させ、アイデアを積極的にマーケティングしたり、議論の的となっている議題を推進したりするのに用いられる。
既存のT2Iモデルバイアス評価手法は、社会的バイアスのみに焦点を当てる。
本稿では,T2I生成モデルにおける一般バイアスの定量化手法を提案する。
論文 参考訳(メタデータ) (2023-12-20T14:26:54Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。