論文の概要: Generated Bias: Auditing Internal Bias Dynamics of Text-To-Image Generative Models
- arxiv url: http://arxiv.org/abs/2410.07884v1
- Date: Thu, 10 Oct 2024 13:06:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-31 14:16:01.973428
- Title: Generated Bias: Auditing Internal Bias Dynamics of Text-To-Image Generative Models
- Title(参考訳): Generated Bias:テキスト・画像生成モデルの内部バイアスダイナミクスの検証
- Authors: Abhishek Mandal, Susan Leavy, Suzanne Little,
- Abstract要約: テキスト・トゥ・イメージ(TTI)モデルは、テキスト・プロンプトから画像を生成することができる。
これらのモデルは、複数の段階でデータを内部で処理し、複数の構成モデルを使用し、しばしば個別に訓練される。
これらの多段階マルチモーダルモデルの内部バイアスを測定するための2つの新しい指標を提案する。
- 参考スコア(独自算出の注目度): 2.8391805742728553
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text-To-Image (TTI) Diffusion Models such as DALL-E and Stable Diffusion are capable of generating images from text prompts. However, they have been shown to perpetuate gender stereotypes. These models process data internally in multiple stages and employ several constituent models, often trained separately. In this paper, we propose two novel metrics to measure bias internally in these multistage multimodal models. Diffusion Bias was developed to detect and measures bias introduced by the diffusion stage of the models. Bias Amplification measures amplification of bias during the text-to-image conversion process. Our experiments reveal that TTI models amplify gender bias, the diffusion process itself contributes to bias and that Stable Diffusion v2 is more prone to gender bias than DALL-E 2.
- Abstract(参考訳): DALL-EやStable Diffusionのようなテキスト・ツー・イメージ(TTI)拡散モデルでは、テキスト・プロンプトから画像を生成することができる。
しかし、それらは性別のステレオタイプを永続させることが示されている。
これらのモデルは、複数の段階でデータを内部で処理し、複数の構成モデルを使用し、しばしば個別に訓練される。
本稿では,これらの多段階マルチモーダルモデルの内部バイアスを測定するための2つの新しい指標を提案する。
拡散バイアスは, モデルの拡散段階から生じるバイアスを検出し, 測定するために開発された。
Bias Amplificationは、テキストから画像への変換過程におけるバイアスの増幅を測定する。
実験の結果、TTIモデルは性バイアスを増幅し、拡散過程自体がバイアスに寄与し、安定拡散 v2 は DALL-E 2 よりも性バイアスに起因していることが明らかとなった。
関連論文リスト
- Shaping Inductive Bias in Diffusion Models through Frequency-Based Noise Control [43.87692887705523]
我々は拡散確率モデル(DPM)のトレーニングとサンプリングに誘導バイアスを組み込む。
本研究は,各データセットが異なる誘導バイアスを必要とすること,および適切な周波数ベースノイズ制御により,標準拡散よりも生成性能が向上することを示す。
論文 参考訳(メタデータ) (2025-02-14T15:46:37Z) - InvDiff: Invariant Guidance for Bias Mitigation in Diffusion Models [28.51460282167433]
拡散モデルは、非常にデータ駆動であり、現実世界のデータに存在する不均衡とバイアスを継承する傾向がある。
拡散誘導のための不変意味情報学習を目的としたフレームワークInvDiffを提案する。
InvDiffは、画像生成の品質を維持しながら、バイアスを効果的に低減する。
論文 参考訳(メタデータ) (2024-12-11T15:47:11Z) - Non-Normal Diffusion Models [3.5534933448684134]
拡散モデルは、データをノイズに変える過程を漸進的に反転させることでサンプルを生成する。
ステップサイズが 0 となると、逆過程はこれらの増分分布に不変であることを示す。
本稿では,これらのモデルが標準画像データセット上での密度推定および生成モデリングタスクに与える影響を実証する。
論文 参考訳(メタデータ) (2024-12-10T21:31:12Z) - Smooth Diffusion: Crafting Smooth Latent Spaces in Diffusion Models [82.8261101680427]
滑らかな潜伏空間は、入力潜伏空間上の摂動が出力画像の定常的な変化に対応することを保証している。
この特性は、画像の反転、反転、編集を含む下流タスクにおいて有益である。
スムース拡散(Smooth Diffusion, Smooth Diffusion)は, 高速かつスムーズな拡散モデルである。
論文 参考訳(メタデータ) (2023-12-07T16:26:23Z) - Soft Mixture Denoising: Beyond the Expressive Bottleneck of Diffusion
Models [76.46246743508651]
我々は,現在の拡散モデルが後方認知において表現力のあるボトルネックを持っていることを示した。
本稿では,後方復調のための表現的かつ効率的なモデルであるソフトミキシング・デノナイジング(SMD)を導入する。
論文 参考訳(メタデータ) (2023-09-25T12:03:32Z) - The Bias Amplification Paradox in Text-to-Image Generation [23.7496998646073]
安定拡散を用いたテキスト・画像領域におけるバイアス増幅について検討した。
このモデルは、トレーニングデータに見られる性別占有バイアスをかなり増幅しているように見える。
増幅は トレーニングキャプションと モデルプロンプトの 相違によるものです
論文 参考訳(メタデータ) (2023-08-01T18:00:08Z) - Analyzing Bias in Diffusion-based Face Generation Models [75.80072686374564]
拡散モデルは、合成データ生成と画像編集アプリケーションでますます人気がある。
本研究では, 性別, 人種, 年齢などの属性に関して, 拡散型顔生成モデルにおけるバイアスの存在について検討する。
本研究は,GAN(Generative Adversarial Network)とGAN(Generative Adversarial Network)をベースとした顔生成モデルにおいて,データセットサイズが属性組成および知覚品質に与える影響について検討する。
論文 参考訳(メタデータ) (2023-05-10T18:22:31Z) - Unifying Diffusion Models' Latent Space, with Applications to
CycleDiffusion and Guidance [95.12230117950232]
関係領域で独立に訓練された2つの拡散モデルから共通潜時空間が現れることを示す。
テキスト・画像拡散モデルにCycleDiffusionを適用することで、大規模なテキスト・画像拡散モデルがゼロショット画像・画像拡散エディタとして使用できることを示す。
論文 参考訳(メタデータ) (2022-10-11T15:53:52Z) - Diffusion Models in Vision: A Survey [73.10116197883303]
拡散モデルは、前方拡散段階と逆拡散段階の2つの段階に基づく深層生成モデルである。
拡散モデルは、既知の計算負荷にもかかわらず、生成したサンプルの品質と多様性に対して広く評価されている。
論文 参考訳(メタデータ) (2022-09-10T22:00:30Z) - How Much is Enough? A Study on Diffusion Times in Score-based Generative
Models [76.76860707897413]
現在のベストプラクティスは、フォワードダイナミクスが既知の単純なノイズ分布に十分に近づくことを確実にするために大きなTを提唱している。
本稿では, 理想とシミュレーションされたフォワードダイナミクスのギャップを埋めるために補助モデルを用いて, 標準的な逆拡散過程を導出する方法について述べる。
論文 参考訳(メタデータ) (2022-06-10T15:09:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。