論文の概要: FreeDoM: Training-Free Energy-Guided Conditional Diffusion Model
- arxiv url: http://arxiv.org/abs/2303.09833v1
- Date: Fri, 17 Mar 2023 08:38:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-20 15:11:46.341175
- Title: FreeDoM: Training-Free Energy-Guided Conditional Diffusion Model
- Title(参考訳): FreeDoM:自由エネルギー誘導条件拡散モデル
- Authors: Jiwen Yu, Yinhuai Wang, Chen Zhao, Bernard Ghanem, Jian Zhang
- Abstract要約: 本研究では, 各種条件に対する自由条件拡散モデル (FreeDoM) を提案する。
具体的には、オフザシェルフ事前学習ネットワーク(顔検出モデルなど)を活用して、時間に依存しないエネルギー関数を構築する。
提案するFreeDoMは,既存のトレーニングフリー手法よりも幅広い用途がある。
- 参考スコア(独自算出の注目度): 59.317041523253245
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, conditional diffusion models have gained popularity in numerous
applications due to their exceptional generation ability. However, many
existing methods are training-required. They need to train a time-dependent
classifier or a condition-dependent score estimator, which increases the cost
of constructing conditional diffusion models and is inconvenient to transfer
across different conditions. Some current works aim to overcome this limitation
by proposing training-free solutions, but most can only be applied to a
specific category of tasks and not to more general conditions. In this work, we
propose a training-Free conditional Diffusion Model (FreeDoM) used for various
conditions. Specifically, we leverage off-the-shelf pre-trained networks, such
as a face detection model, to construct time-independent energy functions,
which guide the generation process without requiring training. Furthermore,
because the construction of the energy function is very flexible and adaptable
to various conditions, our proposed FreeDoM has a broader range of applications
than existing training-free methods. FreeDoM is advantageous in its simplicity,
effectiveness, and low cost. Experiments demonstrate that FreeDoM is effective
for various conditions and suitable for diffusion models of diverse data
domains, including image and latent code domains.
- Abstract(参考訳): 近年、条件付き拡散モデルはその例外的な生成能力のために多くの応用で人気を集めている。
しかし、既存の多くの手法は訓練が要求される。
時間依存型分類器や条件依存型スコア推定器を訓練する必要があるため、条件付き拡散モデルの構築コストが増大し、異なる条件間での移動が不便である。
現在の研究では、トレーニングフリーなソリューションを提案することで、この制限を克服することを目的としているが、ほとんどは、より一般的な条件ではなく、特定のタスクのカテゴリにしか適用できない。
本研究では,様々な条件下でのトレーニングフリー条件拡散モデル(freedom)を提案する。
具体的には,既成の事前学習ネットワークである顔検出モデルを用いて,学習を必要とせず生成過程を導く時間に依存しないエネルギー関数を構築する。
さらに,エネルギー関数の構成は様々な条件に非常に柔軟で適応できるため,提案したFreeDoMは既存のトレーニング不要手法よりも幅広い適用範囲を有する。
FreeDoMはその単純さ、有効性、低コストで有利です。
実験により、FreeDoMは様々な条件で有効であり、画像や潜時コードドメインを含む多様なデータドメインの拡散モデルに適していることが示された。
関連論文リスト
- TRADE: Transfer of Distributions between External Conditions with Normalizing Flows [7.950853733690331]
本稿では,境界値問題として学習過程を定式化することで限界を克服するTRADEを提案する。
ベイズ推定や分子シミュレーションから物理格子モデルまで,幅広い応用において優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2024-10-25T11:49:40Z) - Diversified Batch Selection for Training Acceleration [68.67164304377732]
オンラインバッチ選択として知られる一般的な研究ラインでは、トレーニングプロセス中の情報サブセットの選択について検討している。
バニラ参照モデルフリーメソッドは、独立してデータをサンプリング的にスコア付けし、選択する。
DivBS(Diversified Batch Selection)を提案する。
論文 参考訳(メタデータ) (2024-06-07T12:12:20Z) - DEFT: Efficient Fine-Tuning of Diffusion Models by Learning the Generalised $h$-transform [44.29325094229024]
DFT(Doob's h-transform Efficient FineTuning)は、非常に小さなネットワークを微調整して条件付き$h$-transformを高速に学習する条件生成手法である。
画像再構成作業では, 自然画像の知覚品質と医用画像の再現性能を最良に保ちながら, 最大1.6$times$の高速化を実現している。
論文 参考訳(メタデータ) (2024-06-03T20:52:34Z) - Manifold Preserving Guided Diffusion [121.97907811212123]
条件付き画像生成は、コスト、一般化可能性、タスク固有のトレーニングの必要性といった課題に直面している。
トレーニング不要な条件生成フレームワークであるManifold Preserving Guided Diffusion (MPGD)を提案する。
論文 参考訳(メタデータ) (2023-11-28T02:08:06Z) - Steered Diffusion: A Generalized Framework for Plug-and-Play Conditional
Image Synthesis [62.07413805483241]
Steered Diffusionは、無条件生成のために訓練された拡散モデルを用いたゼロショット条件画像生成のためのフレームワークである。
塗装,着色,テキスト誘導セマンティック編集,画像超解像などのタスクに対して,ステアリング拡散を用いた実験を行った。
論文 参考訳(メタデータ) (2023-09-30T02:03:22Z) - Value function estimation using conditional diffusion models for control [62.27184818047923]
拡散値関数(DVF)と呼ばれる単純なアルゴリズムを提案する。
拡散モデルを用いて環境-ロボット相互作用の連成多段階モデルを学ぶ。
本稿では,DVFを用いて複数のコントローラの状態を効率よく把握する方法を示す。
論文 参考訳(メタデータ) (2023-06-09T18:40:55Z) - Towards Controllable Diffusion Models via Reward-Guided Exploration [15.857464051475294]
強化学習(RL)による拡散モデルの学習段階を導く新しい枠組みを提案する。
RLは、政策そのものではなく、指数スケールの報酬に比例したペイオフ分布からのサンプルによる政策勾配を計算することができる。
3次元形状と分子生成タスクの実験は、既存の条件拡散モデルよりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-04-14T13:51:26Z) - Is Conditional Generative Modeling all you need for Decision-Making? [19.39663779573325]
条件生成モデリングは意思決定の強力なツールであることを示す。
その結果,条件付き生成モデリングは意思決定の強力なツールであることがわかった。
論文 参考訳(メタデータ) (2022-11-28T18:59:02Z) - Conditional Generative Modeling via Learning the Latent Space [54.620761775441046]
マルチモーダル空間における条件生成のための新しい枠組みを提案する。
潜在変数を使って一般化可能な学習パターンをモデル化する。
推論では、潜伏変数は複数の出力モードに対応する最適解を見つけるために最適化される。
論文 参考訳(メタデータ) (2020-10-07T03:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。