論文の概要: Balancing Act: Distribution-Guided Debiasing in Diffusion Models
- arxiv url: http://arxiv.org/abs/2402.18206v3
- Date: Wed, 29 May 2024 13:33:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-30 23:11:33.907759
- Title: Balancing Act: Distribution-Guided Debiasing in Diffusion Models
- Title(参考訳): バランシング法:拡散モデルにおける分散誘導型デバイアス
- Authors: Rishubh Parihar, Abhijnya Bhat, Abhipsa Basu, Saswat Mallick, Jogendra Nath Kundu, R. Venkatesh Babu,
- Abstract要約: 拡散モデル(DM)は、前例のない画像生成能力を持つ強力な生成モデルとして登場した。
DMはトレーニングデータセットに存在するバイアスを反映します。
本稿では、追加データやモデル再学習に頼ることなく、DMをデバイアスする手法を提案する。
- 参考スコア(独自算出の注目度): 31.38505986239798
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion Models (DMs) have emerged as powerful generative models with unprecedented image generation capability. These models are widely used for data augmentation and creative applications. However, DMs reflect the biases present in the training datasets. This is especially concerning in the context of faces, where the DM prefers one demographic subgroup vs others (eg. female vs male). In this work, we present a method for debiasing DMs without relying on additional data or model retraining. Specifically, we propose Distribution Guidance, which enforces the generated images to follow the prescribed attribute distribution. To realize this, we build on the key insight that the latent features of denoising UNet hold rich demographic semantics, and the same can be leveraged to guide debiased generation. We train Attribute Distribution Predictor (ADP) - a small mlp that maps the latent features to the distribution of attributes. ADP is trained with pseudo labels generated from existing attribute classifiers. The proposed Distribution Guidance with ADP enables us to do fair generation. Our method reduces bias across single/multiple attributes and outperforms the baseline by a significant margin for unconditional and text-conditional diffusion models. Further, we present a downstream task of training a fair attribute classifier by rebalancing the training set with our generated data.
- Abstract(参考訳): 拡散モデル(DM)は、前例のない画像生成能力を持つ強力な生成モデルとして登場した。
これらのモデルは、データ拡張とクリエイティブなアプリケーションに広く利用されている。
しかし、DMはトレーニングデータセットに存在するバイアスを反映する。
これは特に、DMが1つのサブグループと他のグループ(例えば、女性と男性)を優先する顔の文脈において関係している。
本研究では,追加データやモデル再学習に頼ることなく,DMを劣化させる手法を提案する。
具体的には,生成した画像を所定の属性分布に従うように強制する分散誘導法を提案する。
これを実現するために、UNetを識別する潜在機能には、リッチな階層的セマンティクスが備わっており、デバイアス発生を誘導するためにも同様に活用できる、という重要な洞察に基づいて構築する。
ADP(Attribute Distribution Predictor)をトレーニングします - 潜伏した特徴を属性の分布にマッピングする小さなmlpです。
ADPは、既存の属性分類器から生成された擬似ラベルで訓練される。
ADPを用いた配電誘導により,公平な生成が可能となる。
提案手法は, 単一/複数属性間のバイアスを低減し, 非条件およびテキスト条件拡散モデルにおいて, ベースラインのマージンを著しく上回る。
さらに、生成されたデータとトレーニングセットを再バランスさせることにより、フェア属性分類器をトレーニングする下流タスクを提案する。
関連論文リスト
- Efficient Shapley Values for Attributing Global Properties of Diffusion Models to Data Group [13.761241561734547]
モデルプルーニングと微調整を利用してシェープリー値を効率的に推定する手法を開発した。
I) CIFARデータセットで訓練されたDDPMのグローバル画像品質、(II) CelebA-HQで訓練されたLCMの人口統計学的多様性、(iii) 印象派のアートワークで修正された安定拡散モデルLoRAの全体的な審美的品質、の3つのユースケースで本手法の有用性を実証的に実証した。
論文 参考訳(メタデータ) (2024-06-09T17:42:09Z) - Distributionally Generative Augmentation for Fair Facial Attribute Classification [69.97710556164698]
Facial Attribute Classification (FAC) は広く応用されている。
従来の手法で訓練されたFACモデルは、様々なデータサブポピュレーションにまたがる精度の不整合を示すことによって不公平である可能性がある。
本研究は,付加アノテーションなしでバイアスデータ上で公正なFACモデルをトレーニングするための,新しい世代ベースの2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T10:50:53Z) - Gaussian Harmony: Attaining Fairness in Diffusion-based Face Generation
Models [31.688873613213392]
拡散モデルは生成過程のバイアスを増幅し、年齢、性別、人種などの敏感な属性の分布の不均衡をもたらす。
ガウス混合モデル(GMM)を用いて拡散モデルの潜時空間における顔特性の手段を局在させることによりバイアスを軽減する。
その結果, 提案手法は, 生成したサンプルの品質を保ちながら, 表現フェアネスの観点から, より公平なデータ生成につながることが示された。
論文 参考訳(メタデータ) (2023-12-21T20:06:15Z) - Fair GANs through model rebalancing for extremely imbalanced class
distributions [5.463417677777276]
本稿では,既存のバイアス付きGANからGAN(unbiased generative adversarial Network)を構築するためのアプローチを提案する。
Flickr Faces High Quality (FFHQ) データセットを用いて、人種的公平性をトレーニングしながら、StyleGAN2モデルの結果を示す。
また,不均衡なCIFAR10データセットに適用することで,我々のアプローチをさらに検証する。
論文 参考訳(メタデータ) (2023-08-16T19:20:06Z) - Improving Out-of-Distribution Robustness of Classifiers via Generative
Interpolation [56.620403243640396]
ディープニューラルネットワークは、独立かつ同一に分散されたデータ(すなわち、d)から学習する上で、優れたパフォーマンスを達成する。
しかし、アウト・オブ・ディストリビューション(OoD)データを扱う場合、その性能は著しく低下する。
多様なOoDサンプルを合成するために,複数のドメインから学習した生成モデルを融合するための生成補間法(Generative Interpolation)を開発した。
論文 参考訳(メタデータ) (2023-07-23T03:53:53Z) - Diff-Instruct: A Universal Approach for Transferring Knowledge From
Pre-trained Diffusion Models [77.83923746319498]
本稿では,任意の生成モデルの学習を指導するDiff-Instructというフレームワークを提案する。
Diff-Instructは、最先端の単一ステップ拡散モデルであることを示す。
GANモデルの精製実験により、Diff-InstructはGANモデルの事前訓練されたジェネレータを一貫して改善できることが示されている。
論文 参考訳(メタデータ) (2023-05-29T04:22:57Z) - Analyzing Bias in Diffusion-based Face Generation Models [75.80072686374564]
拡散モデルは、合成データ生成と画像編集アプリケーションでますます人気がある。
本研究では, 性別, 人種, 年齢などの属性に関して, 拡散型顔生成モデルにおけるバイアスの存在について検討する。
本研究は,GAN(Generative Adversarial Network)とGAN(Generative Adversarial Network)をベースとした顔生成モデルにおいて,データセットサイズが属性組成および知覚品質に与える影響について検討する。
論文 参考訳(メタデータ) (2023-05-10T18:22:31Z) - Class-Balancing Diffusion Models [57.38599989220613]
クラスバランシング拡散モデル(CBDM)は、分散調整正規化器をソリューションとして訓練する。
提案手法は,CIFAR100/CIFAR100LTデータセットで生成結果をベンチマークし,下流認識タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-30T20:00:14Z) - Self-Conditioned Generative Adversarial Networks for Image Editing [61.50205580051405]
Generative Adversarial Networks (GAN) はバイアスの影響を受けやすい。
我々は、このバイアスが公平性だけでなく、分布のコアから逸脱する際の潜在トラバース編集手法の崩壊に重要な役割を果たしていると論じる。
論文 参考訳(メタデータ) (2022-02-08T18:08:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。