論文の概要: Unbiased Image Synthesis via Manifold-Driven Sampling in Diffusion
Models
- arxiv url: http://arxiv.org/abs/2307.08199v2
- Date: Fri, 18 Aug 2023 03:06:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 22:54:32.591037
- Title: Unbiased Image Synthesis via Manifold-Driven Sampling in Diffusion
Models
- Title(参考訳): 拡散モデルにおけるマニフォールド駆動サンプリングによる不偏像合成
- Authors: Xingzhe Su, Yi Ren, Wenwen Qiang, Zeen Song, Hang Gao, Fengge Wu,
Changwen Zheng
- Abstract要約: 拡散モデルは、高品質な画像を生成することができる強力な生成モデルのクラスである。
データバイアスに関連する問題に直面し、特定のデータモードを優先する。
本稿では,拡散モデルにおけるデータバイアスを軽減するために,多様体誘導を利用した新しい手法を提案する。
- 参考スコア(独自算出の注目度): 24.610977739714134
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion models are a potent class of generative models capable of producing
high-quality images. However, they can face challenges related to data bias,
favoring specific modes of data, especially when the training data does not
accurately represent the true data distribution and exhibits skewed or
imbalanced patterns. For instance, the CelebA dataset contains more female
images than male images, leading to biased generation results and impacting
downstream applications. To address this issue, we propose a novel method that
leverages manifold guidance to mitigate data bias in diffusion models. Our key
idea is to estimate the manifold of the training data using an unsupervised
approach, and then use it to guide the sampling process of diffusion models.
This encourages the generated images to be uniformly distributed on the data
manifold without altering the model architecture or necessitating labels or
retraining. Theoretical analysis and empirical evidence demonstrate the
effectiveness of our method in improving the quality and unbiasedness of image
generation compared to standard diffusion models.
- Abstract(参考訳): 拡散モデルは高品質な画像を生成することができる強力な生成モデルのクラスである。
しかし、データバイアスに関連する課題に直面し、特にトレーニングデータが真のデータ分布を正確に表現せず、歪んだパターンや不均衡パターンを示す場合、特定のデータモードを好む。
例えば、CelebAデータセットは男性画像よりも女性画像が多く含まれており、バイアスのある生成結果と下流アプリケーションに影響を与える。
そこで本研究では,拡散モデルにおけるデータバイアスを緩和するために多様体誘導を利用する新しい手法を提案する。
我々のキーとなる考え方は、教師なしアプローチを用いてトレーニングデータの多様体を推定し、拡散モデルのサンプリングプロセスを導くことである。
これにより生成されたイメージは、モデルアーキテクチャを変更したり、ラベルを変更したり、再トレーニングしたりすることなく、データ多様体上に均一に分散されるようになる。
理論的解析と実証的証拠は, 標準的な拡散モデルと比較して画像の画質と不偏性を改善する方法の有効性を示した。
関連論文リスト
- Training Class-Imbalanced Diffusion Model Via Overlap Optimization [55.96820607533968]
実世界のデータセットで訓練された拡散モデルは、尾クラスの忠実度が劣ることが多い。
拡散モデルを含む深い生成モデルは、豊富な訓練画像を持つクラスに偏りがある。
本研究では,異なるクラスに対する合成画像の分布の重複を最小限に抑えるために,コントラスト学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-02-16T16:47:21Z) - Self-Play Fine-Tuning of Diffusion Models for Text-to-Image Generation [59.184980778643464]
ファインチューニング拡散モデル : 生成人工知能(GenAI)の最前線
本稿では,拡散モデル(SPIN-Diffusion)のための自己演奏ファインチューニングという革新的な手法を紹介する。
提案手法は従来の教師付き微調整とRL戦略の代替として,モデル性能とアライメントの両方を大幅に改善する。
論文 参考訳(メタデータ) (2024-02-15T18:59:18Z) - Large-scale Reinforcement Learning for Diffusion Models [30.164571425479824]
テキストと画像の拡散モデルは、Webスケールのテキストと画像のトレーニングペアから生じる暗黙のバイアスに影響を受けやすい。
強化学習(Reinforcement Learning, RL)を用いて, 拡散モデルの改善に有効なスケーラブルアルゴリズムを提案する。
提案手法は,従来の拡散モデルと人間の嗜好を整合させる手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-01-20T08:10:43Z) - Conditional Image Generation with Pretrained Generative Model [1.4685355149711303]
拡散モデルは、GANモデルと比較して高品質な画像を生成する能力で人気を集めている。
これらのモデルには膨大な量のデータ、計算資源、そして訓練を成功させるために巧妙なチューニングが必要である。
本研究では,条件付き画像生成のために,事前学習した非条件拡散モデルを活用する手法を提案する。
論文 参考訳(メタデータ) (2023-12-20T18:27:53Z) - The Journey, Not the Destination: How Data Guides Diffusion Models [75.19694584942623]
大規模なデータセットでトレーニングされた拡散モデルは、顕著な品質と多様性のフォトリアリスティックなイメージを合成することができる。
i)拡散モデルの文脈でデータ属性の形式的概念を提供し、(ii)そのような属性を反実的に検証することを可能にする枠組みを提案する。
論文 参考訳(メタデータ) (2023-12-11T08:39:43Z) - GSURE-Based Diffusion Model Training with Corrupted Data [44.47246905244631]
本稿では, 劣化データのみに基づく生成拡散モデルのための新しいトレーニング手法を提案する。
顔画像と磁気共鳴画像(MRI)の撮影技術について紹介する。
論文 参考訳(メタデータ) (2023-05-22T15:27:20Z) - Analyzing Bias in Diffusion-based Face Generation Models [75.80072686374564]
拡散モデルは、合成データ生成と画像編集アプリケーションでますます人気がある。
本研究では, 性別, 人種, 年齢などの属性に関して, 拡散型顔生成モデルにおけるバイアスの存在について検討する。
本研究は,GAN(Generative Adversarial Network)とGAN(Generative Adversarial Network)をベースとした顔生成モデルにおいて,データセットサイズが属性組成および知覚品質に与える影響について検討する。
論文 参考訳(メタデータ) (2023-05-10T18:22:31Z) - Class-Balancing Diffusion Models [57.38599989220613]
クラスバランシング拡散モデル(CBDM)は、分散調整正規化器をソリューションとして訓練する。
提案手法は,CIFAR100/CIFAR100LTデータセットで生成結果をベンチマークし,下流認識タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-30T20:00:14Z) - On Distillation of Guided Diffusion Models [94.95228078141626]
そこで本研究では,分類器を含まない誘導拡散モデルから抽出し易いモデルへ抽出する手法を提案する。
画素空間上で訓練された標準拡散モデルに対して,本手法は元のモデルに匹敵する画像を生成することができる。
遅延空間で訓練された拡散モデル(例えば、安定拡散)に対して、我々の手法は1から4段階のデノナイジングステップで高忠実度画像を生成することができる。
論文 参考訳(メタデータ) (2022-10-06T18:03:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。