論文の概要: Fair Generation without Unfair Distortions: Debiasing Text-to-Image Generation with Entanglement-Free Attention
- arxiv url: http://arxiv.org/abs/2506.13298v2
- Date: Sun, 03 Aug 2025 05:30:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 14:07:57.175085
- Title: Fair Generation without Unfair Distortions: Debiasing Text-to-Image Generation with Entanglement-Free Attention
- Title(参考訳): 不公平な歪みのない公正な生成:絡み合いのない注意を伴うテキスト・画像生成を嫌う
- Authors: Jeonghoon Park, Juyoung Lee, Chaeyeon Chung, Jaeseong Lee, Jaegul Choo, Jindong Gu,
- Abstract要約: Entanglement-Free Attention (EFA) は、非ターゲット属性をバイアス緩和時に保存しながら、ターゲット属性を正確に組み込む手法である。
推論時に、EFAは、ターゲット属性を同じ確率でランダムにサンプリングし、選択された層内の交差アテンションを調整して、サンプル属性を組み込む。
大規模な実験により、EFAは非ターゲット属性を保ちながらバイアスを緩和する既存の手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 42.277875137852234
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in diffusion-based text-to-image (T2I) models have enabled the generation of high-quality and photorealistic images from text. However, they often exhibit societal biases related to gender, race, and socioeconomic status, thereby potentially reinforcing harmful stereotypes and shaping public perception in unintended ways. While existing bias mitigation methods demonstrate effectiveness, they often encounter attribute entanglement, where adjustments to attributes relevant to the bias (i.e., target attributes) unintentionally alter attributes unassociated with the bias (i.e., non-target attributes), causing undesirable distribution shifts. To address this challenge, we introduce Entanglement-Free Attention (EFA), a method that accurately incorporates target attributes (e.g., White, Black, and Asian) while preserving non-target attributes (e.g., background) during bias mitigation. At inference time, EFA randomly samples a target attribute with equal probability and adjusts the cross-attention in selected layers to incorporate the sampled attribute, achieving a fair distribution of target attributes. Extensive experiments demonstrate that EFA outperforms existing methods in mitigating bias while preserving non-target attributes, thereby maintaining the original model's output distribution and generative capacity.
- Abstract(参考訳): 拡散型テキスト・トゥ・イメージ(T2I)モデルの最近の進歩により、テキストから高品質でフォトリアリスティックな画像を生成することが可能になった。
しかし、彼らはしばしば、性別、人種、社会経済的地位に関連する社会的バイアスを示し、有害なステレオタイプを補強し、意図しない方法で大衆の認識を形作る可能性がある。
既存のバイアス緩和法は効果を示すが、しばしば属性の絡み合いに遭遇し、バイアスに関連する属性(すなわちターゲット属性)に対する調整は、バイアスとは無関係な属性(すなわち非ターゲット属性)を意図せずに変更し、望ましくない分布シフトを引き起こす。
この課題に対処するために,非対象属性(例えば,白,黒,アジア)を正確に組み込むとともに,非対象属性(例えば,背景)をバイアス緩和時に保存する手法であるEntanglement-Free Attention (EFA)を導入する。
推定時刻において、EFAは、ターゲット属性を等確率でランダムにサンプリングし、選択された層内のクロスアテンションを調整してサンプル属性を組み込み、ターゲット属性の公平な分布を達成する。
大規模な実験により、EFAは非ターゲット属性を保持しながらバイアスを緩和する既存の手法よりも優れており、それによって元のモデルの出力分布と生成能力が維持されることが示された。
関連論文リスト
- Bias Analysis in Unconditional Image Generative Models [21.530188920526843]
我々は、条件のない画像生成モデルを訓練し、トレーニングと生成された分布の間のバイアスシフトを研究するために一般的に使用されるバイアス評価フレームワークを採用する。
実験の結果,検出された属性シフトは小さいことがわかった。
属性シフトは、特に高密度領域における決定境界が低下した場合に、評価フレームワークで生成された画像のラベル付けに使用される属性分類器に敏感であることが判明した。
論文 参考訳(メタデータ) (2025-06-10T16:53:10Z) - FairGen: Controlling Sensitive Attributes for Fair Generations in Diffusion Models via Adaptive Latent Guidance [19.65226469682089]
テキストと画像の拡散モデルは、しばしば特定の人口集団に対するバイアスを示す。
本稿では,任意の属性値に対して生成バイアスを緩和する課題に取り組む。
推論中の生成分布を制御する適応型潜伏誘導機構であるFairGenを提案する。
論文 参考訳(メタデータ) (2025-02-25T23:47:22Z) - Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - AITTI: Learning Adaptive Inclusive Token for Text-to-Image Generation [53.65701943405546]
我々は適応的包摂トークンを学習し、最終的な生成出力の属性分布をシフトする。
本手法では,明示的な属性仕様やバイアス分布の事前知識は必要としない。
提案手法は,特定の属性を要求されたり,生成の方向を編集するモデルに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2024-06-18T17:22:23Z) - Distributionally Generative Augmentation for Fair Facial Attribute Classification [69.97710556164698]
Facial Attribute Classification (FAC) は広く応用されている。
従来の手法で訓練されたFACモデルは、様々なデータサブポピュレーションにまたがる精度の不整合を示すことによって不公平である可能性がある。
本研究は,付加アノテーションなしでバイアスデータ上で公正なFACモデルをトレーニングするための,新しい世代ベースの2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T10:50:53Z) - Uncovering Bias in Face Generation Models [0.0]
GANと拡散モデルの最近の進歩により、高解像度の超現実的画像の作成が可能になった。
これらのモデルは特定の社会集団を誤って表現し、偏見を呈することがある。
この研究は、3つのアプローチに対するバイアスのきめ細かい理解のための空間をカバーおよび埋め込みする新しい分析である。
論文 参考訳(メタデータ) (2023-02-22T18:57:35Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - Semi-FairVAE: Semi-supervised Fair Representation Learning with
Adversarial Variational Autoencoder [92.67156911466397]
逆変分オートエンコーダに基づく半教師付き公正表現学習手法を提案する。
我々は、バイアス認識モデルを用いて、機密属性の固有バイアス情報をキャプチャする。
また、偏見のないモデルを用いて、対立学習を用いて偏見情報を取り除き、偏見のない公正表現を学習する。
論文 参考訳(メタデータ) (2022-04-01T15:57:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。