論文の概要: Fair Generation without Unfair Distortions: Debiasing Text-to-Image Generation with Entanglement-Free Attention
- arxiv url: http://arxiv.org/abs/2506.13298v1
- Date: Mon, 16 Jun 2025 09:40:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:47.999299
- Title: Fair Generation without Unfair Distortions: Debiasing Text-to-Image Generation with Entanglement-Free Attention
- Title(参考訳): 不公平な歪みのない公正な生成:絡み合いのない注意を伴うテキスト・画像生成を嫌う
- Authors: Jeonghoon Park, Juyoung Lee, Chaeyeon Chung, Jaeseong Lee, Jaegul Choo, Jindong Gu,
- Abstract要約: Entanglement-Free Attention (EFA) は、非ターゲット属性をバイアス緩和時に保存しながら、ターゲット属性を正確に組み込む手法である。
推論時に、EFAは、ターゲット属性を同じ確率でランダムにサンプリングし、選択された層内の交差アテンションを調整して、サンプル属性を組み込む。
大規模な実験により、EFAは非ターゲット属性を保ちながらバイアスを緩和する既存の手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 42.277875137852234
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in diffusion-based text-to-image (T2I) models have enabled the generation of high-quality and photorealistic images from text descriptions. However, they often exhibit societal biases related to gender, race, and socioeconomic status, thereby reinforcing harmful stereotypes and shaping public perception in unintended ways. While existing bias mitigation methods demonstrate effectiveness, they often encounter attribute entanglement, where adjustments to attributes relevant to the bias (i.e., target attributes) unintentionally alter attributes unassociated with the bias (i.e., non-target attributes), causing undesirable distribution shifts. To address this challenge, we introduce Entanglement-Free Attention (EFA), a method that accurately incorporates target attributes (e.g., White, Black, Asian, and Indian) while preserving non-target attributes (e.g., background details) during bias mitigation. At inference time, EFA randomly samples a target attribute with equal probability and adjusts the cross-attention in selected layers to incorporate the sampled attribute, achieving a fair distribution of target attributes. Extensive experiments demonstrate that EFA outperforms existing methods in mitigating bias while preserving non-target attributes, thereby maintaining the output distribution and generation capability of the original model.
- Abstract(参考訳): 拡散型テキスト・トゥ・イメージ(T2I)モデルの最近の進歩により、テキスト記述から高品質でフォトリアリスティックな画像を生成することが可能になった。
しかし、彼らはしばしば、性別、人種、社会経済的地位に関連する社会的バイアスを示し、有害なステレオタイプを補強し、意図しない方法で大衆の認識を形作る。
既存のバイアス緩和法は効果を示すが、しばしば属性の絡み合いに遭遇し、バイアスに関連する属性(すなわちターゲット属性)に対する調整は、バイアスとは無関係な属性(すなわち非ターゲット属性)を意図せずに変更し、望ましくない分布シフトを引き起こす。
この課題に対処するために,非対象属性(例えば,白,黒,アジア,インド)を正確に組み込むとともに,非対象属性(例えば,背景詳細)をバイアス緩和時に保存する手法であるEFA(Entanglement-Free Attention)を導入する。
推定時刻において、EFAは、ターゲット属性を等確率でランダムにサンプリングし、選択された層内のクロスアテンションを調整してサンプル属性を組み込み、ターゲット属性の公平な分布を達成する。
大規模な実験により、EFAは非ターゲット属性を保持しながらバイアスを緩和する既存の手法よりも優れており、それによって元のモデルの出力分布と生成能力が維持されることが示された。
関連論文リスト
- FairGen: Controlling Sensitive Attributes for Fair Generations in Diffusion Models via Adaptive Latent Guidance [19.65226469682089]
テキストと画像の拡散モデルは、しばしば特定の人口集団に対するバイアスを示す。
本稿では,任意の属性値に対して生成バイアスを緩和する課題に取り組む。
推論中の生成分布を制御する適応型潜伏誘導機構であるFairGenを提案する。
論文 参考訳(メタデータ) (2025-02-25T23:47:22Z) - AITTI: Learning Adaptive Inclusive Token for Text-to-Image Generation [53.65701943405546]
我々は適応的包摂トークンを学習し、最終的な生成出力の属性分布をシフトする。
本手法では,明示的な属性仕様やバイアス分布の事前知識は必要としない。
提案手法は,特定の属性を要求されたり,生成の方向を編集するモデルに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2024-06-18T17:22:23Z) - Distributionally Generative Augmentation for Fair Facial Attribute Classification [69.97710556164698]
Facial Attribute Classification (FAC) は広く応用されている。
従来の手法で訓練されたFACモデルは、様々なデータサブポピュレーションにまたがる精度の不整合を示すことによって不公平である可能性がある。
本研究は,付加アノテーションなしでバイアスデータ上で公正なFACモデルをトレーニングするための,新しい世代ベースの2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T10:50:53Z) - Semi-FairVAE: Semi-supervised Fair Representation Learning with
Adversarial Variational Autoencoder [92.67156911466397]
逆変分オートエンコーダに基づく半教師付き公正表現学習手法を提案する。
我々は、バイアス認識モデルを用いて、機密属性の固有バイアス情報をキャプチャする。
また、偏見のないモデルを用いて、対立学習を用いて偏見情報を取り除き、偏見のない公正表現を学習する。
論文 参考訳(メタデータ) (2022-04-01T15:57:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。