論文の概要: Bias Begets Bias: The Impact of Biased Embeddings on Diffusion Models
- arxiv url: http://arxiv.org/abs/2409.09569v1
- Date: Sun, 15 Sep 2024 01:09:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-17 20:17:37.524851
- Title: Bias Begets Bias: The Impact of Biased Embeddings on Diffusion Models
- Title(参考訳): Bias Begets Bias: バイアス注入が拡散モデルに及ぼす影響
- Authors: Sahil Kuchlous, Marvin Li, Jeffrey G. Wang,
- Abstract要約: テキスト・トゥ・イメージ(TTI)システムは、社会的偏見に対する精査が増加している。
組込み空間をTTIモデルのバイアス源として検討する。
CLIPのような偏りのあるマルチモーダル埋め込みは、表現バランスの取れたTTIモデルに対して低いアライメントスコアをもたらす。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the growing adoption of Text-to-Image (TTI) systems, the social biases of these models have come under increased scrutiny. Herein we conduct a systematic investigation of one such source of bias for diffusion models: embedding spaces. First, because traditional classifier-based fairness definitions require true labels not present in generative modeling, we propose statistical group fairness criteria based on a model's internal representation of the world. Using these definitions, we demonstrate theoretically and empirically that an unbiased text embedding space for input prompts is a necessary condition for representationally balanced diffusion models, meaning the distribution of generated images satisfy diversity requirements with respect to protected attributes. Next, we investigate the impact of biased embeddings on evaluating the alignment between generated images and prompts, a process which is commonly used to assess diffusion models. We find that biased multimodal embeddings like CLIP can result in lower alignment scores for representationally balanced TTI models, thus rewarding unfair behavior. Finally, we develop a theoretical framework through which biases in alignment evaluation can be studied and propose bias mitigation methods. By specifically adapting the perspective of embedding spaces, we establish new fairness conditions for diffusion model development and evaluation.
- Abstract(参考訳): テキスト・ツー・イメージ(TTI)システムの普及に伴い、これらのモデルの社会的偏見はより精査されている。
ここでは、拡散モデルに対するそのようなバイアスの源である埋め込み空間について体系的な研究を行う。
まず,従来の分類器に基づくフェアネス定義は生成モデルに存在しない真のラベルを必要とするため,モデルの内部表現に基づく統計的グループフェアネス基準を提案する。
これらの定義を用いて、入力プロンプトに対する非バイアステキスト埋め込み空間が表現的バランスの取れた拡散モデルに必要な条件であること、つまり、生成された画像の分布が保護属性に関する多様性要件を満たすことを理論的かつ実証的に証明する。
次に、拡散モデルの評価に一般的に用いられるプロセスである、生成画像とプロンプトのアライメント評価におけるバイアス埋め込みの影響について検討する。
CLIPのような偏りのあるマルチモーダル埋め込みは、表現バランスの取れたTTIモデルのアライメントスコアが低くなり、不公平な振る舞いを報いる。
最後に,アライメント評価におけるバイアスを研究可能な理論的枠組みを開発し,バイアス軽減手法を提案する。
埋め込み空間の観点を具体的に適応させることにより,拡散モデルの開発と評価のための新しい公正条件を確立する。
関連論文リスト
- Debiasing Classifiers by Amplifying Bias with Latent Diffusion and Large Language Models [9.801159950963306]
DiffuBiasはテキスト・画像生成のための新しいパイプラインであり、バイアス・コンフリクト・サンプルを生成することで分類器の堅牢性を高める。
DrouBiasは、安定拡散モデルを活用する最初のアプローチである。
総合実験により,DiffuBiasがベンチマークデータセット上で最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-11-25T04:11:16Z) - Comparing Fairness of Generative Mobility Models [3.699135947901772]
本研究は、生成モビリティモデルの公平性を検証し、地理的領域にわたるモデルパフォーマンスにおいて、しばしば見落とされがちなエクイティの次元に対処する。
クラウドフローデータに基づいて構築された予測モデルは、都市構造や移動パターンを理解するのに有効である。
生成したトレースの有効性と公平性を測定することによって、公正性を評価するための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-11-07T06:01:12Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - MIST: Mitigating Intersectional Bias with Disentangled Cross-Attention Editing in Text-to-Image Diffusion Models [3.3454373538792552]
本稿では,拡散型テキスト・画像モデルにおける交叉バイアスに対処する手法を提案する。
提案手法では,事前学習した安定拡散モデルを用いて,参照画像の追加の必要性を排除し,未修正概念の本来の品質を維持する。
論文 参考訳(メタデータ) (2024-03-28T17:54:38Z) - Unveil Conditional Diffusion Models with Classifier-free Guidance: A Sharp Statistical Theory [87.00653989457834]
条件付き拡散モデルは現代の画像合成の基礎となり、計算生物学や強化学習などの分野に広く応用されている。
経験的成功にもかかわらず、条件拡散モデルの理論はほとんど欠落している。
本稿では,条件拡散モデルを用いた分布推定の急激な統計的理論を提示することにより,ギャップを埋める。
論文 参考訳(メタデータ) (2024-03-18T17:08:24Z) - RS-Corrector: Correcting the Racial Stereotypes in Latent Diffusion
Models [20.53932777919384]
本稿では,潜在空間における反ステレオタイプ的嗜好を確立するためのフレームワークRS-Correctorを提案する。
広範な経験的評価は、導入されたモデルが、十分に訓練された安定拡散モデルの人種的ステレオタイプを効果的に補正することを示した。
論文 参考訳(メタデータ) (2023-12-08T02:59:29Z) - Analyzing Bias in Diffusion-based Face Generation Models [75.80072686374564]
拡散モデルは、合成データ生成と画像編集アプリケーションでますます人気がある。
本研究では, 性別, 人種, 年齢などの属性に関して, 拡散型顔生成モデルにおけるバイアスの存在について検討する。
本研究は,GAN(Generative Adversarial Network)とGAN(Generative Adversarial Network)をベースとした顔生成モデルにおいて,データセットサイズが属性組成および知覚品質に与える影響について検討する。
論文 参考訳(メタデータ) (2023-05-10T18:22:31Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - Bi-Noising Diffusion: Towards Conditional Diffusion Models with
Generative Restoration Priors [64.24948495708337]
本研究では,事前訓練した非条件拡散モデルを用いて,予測サンプルをトレーニングデータ多様体に導入する手法を提案する。
我々は,超解像,着色,乱流除去,画像劣化作業におけるアプローチの有効性を実証するための総合的な実験を行った。
論文 参考訳(メタデータ) (2022-12-14T17:26:35Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Wasserstein-based fairness interpretability framework for machine
learning models [0.2519906683279153]
分類モデルと回帰モデルにおけるバイアスの測定と説明のための公正解釈可能性フレームワークを導入する。
We measure the model bias across the sub-population distributions in the model output using the Wasserstein metric。
非保護クラスに対するモデルと予測器の両方の優遇性を考慮に入れます。
論文 参考訳(メタデータ) (2020-11-06T02:01:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。