論文の概要: Manifold-Guided Sampling in Diffusion Models for Unbiased Image
Generation
- arxiv url: http://arxiv.org/abs/2307.08199v1
- Date: Mon, 17 Jul 2023 02:03:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 15:02:49.328020
- Title: Manifold-Guided Sampling in Diffusion Models for Unbiased Image
Generation
- Title(参考訳): 無バイアス画像生成のための拡散モデルにおけるマニフォールドガイドサンプリング
- Authors: Xingzhe Su, Wenwen Qiang, Zeen Song, Hang Gao, Fengge Wu, Changwen
Zheng
- Abstract要約: 拡散モデルは高品質な画像を生成することができるが、それらはデータバイアスに悩まされる。
データバイアスは、トレーニングデータがデータドメインの真の分布を反映していない場合に発生する。
本稿では, 拡散モデルにおけるデータバイアスを軽減するために, 多様体誘導を適用した新しい手法を提案する。
- 参考スコア(独自算出の注目度): 10.013415375696555
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion models are a powerful class of generative models that can produce
high-quality images, but they may suffer from data bias. Data bias occurs when
the training data does not reflect the true distribution of the data domain,
but rather exhibits some skewed or imbalanced patterns. For example, the CelebA
dataset contains more female images than male images, which can lead to biased
generation results and affect downstream applications. In this paper, we
propose a novel method to mitigate data bias in diffusion models by applying
manifold guidance. Our key idea is to estimate the manifold of the training
data using a learnable information-theoretic approach, and then use it to guide
the sampling process of diffusion models. In this way, we can encourage the
generated images to be uniformly distributed on the data manifold, without
changing the model architecture or requiring labels or retraining. We provide
theoretical analysis and empirical evidence to show that our method can improve
the quality and unbiasedness of image generation compared to standard diffusion
models.
- Abstract(参考訳): 拡散モデルは高品質な画像を生成することができる強力な生成モデルのクラスであるが、それらはデータバイアスに悩まされる。
データバイアスは、トレーニングデータがデータドメインの真の分布を反映せず、歪んだパターンや不均衡なパターンを示すときに発生する。
例えば、CelebAデータセットは男性イメージよりも女性イメージが多いため、バイアスのある生成結果をもたらし、下流アプリケーションに影響を与える可能性がある。
本稿では,拡散モデルにおけるデータバイアスを軽減するための新しい手法を提案する。
我々のキーとなる考え方は、学習可能な情報理論アプローチを用いてトレーニングデータの多様体を推定し、拡散モデルのサンプリングプロセスを導くことである。
このようにして、モデルアーキテクチャを変更したり、ラベルや再トレーニングを必要とすることなく、生成されたイメージをデータ多様体上に均一に分散させるように促すことができる。
本手法は,標準拡散モデルと比較して画像生成の品質と不偏性を向上させることができることを示すための理論的解析と実証的証拠を提供する。
関連論文リスト
- DiffInject: Revisiting Debias via Synthetic Data Generation using Diffusion-based Style Injection [9.801159950963306]
DiffInject(ディフインジェクション)は,事前学習した拡散モデルを用いて,合成バイアス競合サンプルを増強する強力な手法である。
私たちのフレームワークでは、バイアスタイプやラベル付けに関する明確な知識は必要ありません。
論文 参考訳(メタデータ) (2024-06-10T09:45:38Z) - Training Class-Imbalanced Diffusion Model Via Overlap Optimization [55.96820607533968]
実世界のデータセットで訓練された拡散モデルは、尾クラスの忠実度が劣ることが多い。
拡散モデルを含む深い生成モデルは、豊富な訓練画像を持つクラスに偏りがある。
本研究では,異なるクラスに対する合成画像の分布の重複を最小限に抑えるために,コントラスト学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-02-16T16:47:21Z) - Large-scale Reinforcement Learning for Diffusion Models [30.164571425479824]
テキストと画像の拡散モデルは、Webスケールのテキストと画像のトレーニングペアから生じる暗黙のバイアスに影響を受けやすい。
強化学習(Reinforcement Learning, RL)を用いて, 拡散モデルの改善に有効なスケーラブルアルゴリズムを提案する。
提案手法は,従来の拡散モデルと人間の嗜好を整合させる手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-01-20T08:10:43Z) - IBADR: an Iterative Bias-Aware Dataset Refinement Framework for
Debiasing NLU models [52.03761198830643]
IBADR(Iterative Bias-Aware dataset Refinement framework)を提案する。
まず、プール内のサンプルのバイアス度を定量化するために浅いモデルを訓練する。
次に、各サンプルにバイアス度を表すバイアス指標をペアにして、これらの拡張サンプルを使用してサンプルジェネレータを訓練する。
このようにして、このジェネレータは、バイアスインジケータとサンプルの対応関係を効果的に学習することができる。
論文 参考訳(メタデータ) (2023-11-01T04:50:38Z) - Denoising Diffusion Bridge Models [54.87947768074036]
拡散モデルは、プロセスを使用してデータにノイズをマッピングする強力な生成モデルである。
画像編集のような多くのアプリケーションでは、モデル入力はランダムノイズではない分布から来る。
本研究では, DDBM(Denoising Diffusion Bridge Models)を提案する。
論文 参考訳(メタデータ) (2023-09-29T03:24:24Z) - Fair GANs through model rebalancing for extremely imbalanced class
distributions [5.463417677777276]
本稿では,既存のバイアス付きGANからGAN(unbiased generative adversarial Network)を構築するためのアプローチを提案する。
Flickr Faces High Quality (FFHQ) データセットを用いて、人種的公平性をトレーニングしながら、StyleGAN2モデルの結果を示す。
また,不均衡なCIFAR10データセットに適用することで,我々のアプローチをさらに検証する。
論文 参考訳(メタデータ) (2023-08-16T19:20:06Z) - Semi-Implicit Denoising Diffusion Models (SIDDMs) [50.30163684539586]
Denoising Diffusion Probabilistic Models (DDPM)のような既存のモデルは、高品質で多様なサンプルを提供するが、本質的に多くの反復的なステップによって遅くなる。
暗黙的要因と明示的要因を一致させることにより、この問題に対処する新しいアプローチを導入する。
提案手法は拡散モデルに匹敵する生成性能と,少数のサンプリングステップを持つモデルに比較して非常に優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2023-06-21T18:49:22Z) - Analyzing Bias in Diffusion-based Face Generation Models [75.80072686374564]
拡散モデルは、合成データ生成と画像編集アプリケーションでますます人気がある。
本研究では, 性別, 人種, 年齢などの属性に関して, 拡散型顔生成モデルにおけるバイアスの存在について検討する。
本研究は,GAN(Generative Adversarial Network)とGAN(Generative Adversarial Network)をベースとした顔生成モデルにおいて,データセットサイズが属性組成および知覚品質に与える影響について検討する。
論文 参考訳(メタデータ) (2023-05-10T18:22:31Z) - Class-Balancing Diffusion Models [57.38599989220613]
クラスバランシング拡散モデル(CBDM)は、分散調整正規化器をソリューションとして訓練する。
提案手法は,CIFAR100/CIFAR100LTデータセットで生成結果をベンチマークし,下流認識タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-30T20:00:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。