論文の概要: Towards Enhanced Controllability of Diffusion Models
- arxiv url: http://arxiv.org/abs/2302.14368v1
- Date: Tue, 28 Feb 2023 07:43:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-01 17:37:47.983922
- Title: Towards Enhanced Controllability of Diffusion Models
- Title(参考訳): 拡散モデルの制御性向上に向けて
- Authors: Wonwoong Cho, Hareesh Ravi, Midhun Harikumar, Vinh Khuc, Krishna Kumar
Singh, Jingwan Lu, David I. Inouye, Ajinkya Kale
- Abstract要約: 我々は,2つの潜伏符号に条件付き拡散モデル,空間的内容マスクと平らなスタイルの埋め込みを訓練する。
既存の手法と比較して制御性が向上し, 画像操作, 参照ベース画像翻訳, スタイル転送に拡散モデルが有効であることを示す。
- 参考スコア(独自算出の注目度): 22.84630454597448
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Denoising Diffusion models have shown remarkable capabilities in generating
realistic, high-quality and diverse images. However, the extent of
controllability and editability with diffusion models is underexplored relative
to GANs. Inspired by techniques based on the latent space of GAN models for
image manipulation, we propose to train a diffusion model conditioned on two
latent codes, a spatial content mask and a flattened style embedding. We rely
on the inductive bias of the progressive denoising process of diffusion models
to encode pose/layout information in the spatial structure mask and
semantic/style information in the style code. We extend the sampling technique
from composable diffusion models to allow for some dependence between
conditional inputs. This improves the quality of the generations significantly
while also providing control over the amount of guidance from each latent code
separately as well as from their joint distribution. To further enhance
controllability, we vary the level of guidance for structure and style latents
based on the denoising timestep. We observe more controllability compared to
existing methods and show that without explicit training objectives, diffusion
models can be leveraged for effective image manipulation, reference based image
translation and style transfer.
- Abstract(参考訳): 雑音拡散モデルでは、リアルで高品質で多様な画像を生成することができる。
しかし、拡散モデルによる制御可能性と編集性の範囲はgansと比較して過小評価されている。
画像操作のためのganモデルの潜在空間に基づく手法に着想を得て,空間的コンテンツマスクとフラットなスタイル埋め込みという2つの潜在コードに基づく拡散モデルを訓練する。
拡散モデルの進行分節化過程の帰納的バイアスに基づき,空間構造マスクのポーズ・レイアウト情報とスタイルコードにおける意味・スタイル情報を符号化する。
条件付き入力間の依存性を許容するために,合成可能な拡散モデルからサンプリング手法を拡張する。
これにより、世代の品質が大幅に向上すると同時に、各潜在コードからのガイダンスの量と、それらの共同配布のコントロールも可能となる。
制御性をさらに高めるために,分別時間ステップに基づいて,構造やスタイル潜伏者の指導レベルを異にする。
従来の手法と比較して制御性が向上し,明示的なトレーニング目標がなければ,拡散モデルが効果的な画像操作,参照ベース画像翻訳,スタイル転送に活用できることを示す。
関連論文リスト
- Variational Distillation of Diffusion Policies into Mixture of Experts [26.315682445979302]
本研究は, 拡散反応をエキスパート混合体 (MoE) に蒸留する新しい方法である変動拡散蒸留 (VDD) を導入する。
拡散モデル(英: Diffusion Models)は、複雑なマルチモーダル分布を正確に学習し、表現する能力があるため、生成モデリングにおける現在の最先端技術である。
VDDは、事前学習した拡散モデルをMoEモデルに蒸留し、拡散モデルの表現性を混合モデルの利点と組み合わせる最初の方法である。
論文 参考訳(メタデータ) (2024-06-18T12:15:05Z) - Plug-and-Play Diffusion Distillation [14.359953671470242]
誘導拡散モデルのための新しい蒸留手法を提案する。
オリジナルのテキスト・ツー・イメージモデルが凍結されている間、外部の軽量ガイドモデルがトレーニングされる。
提案手法は,クラス化なしガイド付きラテント空間拡散モデルの推論をほぼ半減することを示す。
論文 参考訳(メタデータ) (2024-06-04T04:22:47Z) - Fair Sampling in Diffusion Models through Switching Mechanism [5.560136885815622]
本研究では,拡散モデルに対するテクスタトリビュートスイッチング機構という,公平性を考慮したサンプリング手法を提案する。
提案手法の有効性を2つの重要な側面から数学的に証明し,実験的に実証する。
論文 参考訳(メタデータ) (2024-01-06T06:55:26Z) - Guided Diffusion from Self-Supervised Diffusion Features [49.78673164423208]
ガイダンスは拡散モデルにおいて重要な概念として機能するが、その効果は追加のデータアノテーションや事前学習の必要性によって制限されることが多い。
本稿では,拡散モデルからガイダンスを抽出するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-14T11:19:11Z) - Diff-Instruct: A Universal Approach for Transferring Knowledge From
Pre-trained Diffusion Models [77.83923746319498]
本稿では,任意の生成モデルの学習を指導するDiff-Instructというフレームワークを提案する。
Diff-Instructは、最先端の単一ステップ拡散モデルであることを示す。
GANモデルの精製実験により、Diff-InstructはGANモデルの事前訓練されたジェネレータを一貫して改善できることが示されている。
論文 参考訳(メタデータ) (2023-05-29T04:22:57Z) - Towards Controllable Diffusion Models via Reward-Guided Exploration [15.857464051475294]
強化学習(RL)による拡散モデルの学習段階を導く新しい枠組みを提案する。
RLは、政策そのものではなく、指数スケールの報酬に比例したペイオフ分布からのサンプルによる政策勾配を計算することができる。
3次元形状と分子生成タスクの実験は、既存の条件拡散モデルよりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-04-14T13:51:26Z) - ShiftDDPMs: Exploring Conditional Diffusion Models by Shifting Diffusion
Trajectories [144.03939123870416]
本稿では,前処理に条件を導入することで,新しい条件拡散モデルを提案する。
いくつかのシフト規則に基づいて各条件に対して排他的拡散軌跡を割り当てるために、余剰潜在空間を用いる。
我々は textbfShiftDDPMs と呼ぶメソッドを定式化し、既存のメソッドの統一的な視点を提供する。
論文 参考訳(メタデータ) (2023-02-05T12:48:21Z) - Bi-Noising Diffusion: Towards Conditional Diffusion Models with
Generative Restoration Priors [64.24948495708337]
本研究では,事前訓練した非条件拡散モデルを用いて,予測サンプルをトレーニングデータ多様体に導入する手法を提案する。
我々は,超解像,着色,乱流除去,画像劣化作業におけるアプローチの有効性を実証するための総合的な実験を行った。
論文 参考訳(メタデータ) (2022-12-14T17:26:35Z) - Unifying Diffusion Models' Latent Space, with Applications to
CycleDiffusion and Guidance [95.12230117950232]
関係領域で独立に訓練された2つの拡散モデルから共通潜時空間が現れることを示す。
テキスト・画像拡散モデルにCycleDiffusionを適用することで、大規模なテキスト・画像拡散モデルがゼロショット画像・画像拡散エディタとして使用できることを示す。
論文 参考訳(メタデータ) (2022-10-11T15:53:52Z) - On Distillation of Guided Diffusion Models [94.95228078141626]
そこで本研究では,分類器を含まない誘導拡散モデルから抽出し易いモデルへ抽出する手法を提案する。
画素空間上で訓練された標準拡散モデルに対して,本手法は元のモデルに匹敵する画像を生成することができる。
遅延空間で訓練された拡散モデル(例えば、安定拡散)に対して、我々の手法は1から4段階のデノナイジングステップで高忠実度画像を生成することができる。
論文 参考訳(メタデータ) (2022-10-06T18:03:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。