論文の概要: Diffusion models as plug-and-play priors
- arxiv url: http://arxiv.org/abs/2206.09012v1
- Date: Fri, 17 Jun 2022 21:11:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-26 19:36:16.431344
- Title: Diffusion models as plug-and-play priors
- Title(参考訳): プラグアンドプレイ先としての拡散モデル
- Authors: Alexandros Graikos, Nikolay Malkin, Nebojsa Jojic, Dimitris Samaras
- Abstract要約: 我々は、事前の$p(mathbfx)$と補助的な制約である$c(mathbfx,mathbfy)$からなるモデルにおいて、高次元データ$mathbfx$を推論する問題を考える。
拡散モデルの構造は,異なるノイズ量に富んだ定性デノナイジングネットワークを通じて,微分を反復することで近似推論を行うことができる。
- 参考スコア(独自算出の注目度): 98.16404662526101
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the problem of inferring high-dimensional data $\mathbf{x}$ in a
model that consists of a prior $p(\mathbf{x})$ and an auxiliary constraint
$c(\mathbf{x},\mathbf{y})$. In this paper, the prior is an independently
trained denoising diffusion generative model. The auxiliary constraint is
expected to have a differentiable form, but can come from diverse sources. The
possibility of such inference turns diffusion models into plug-and-play
modules, thereby allowing a range of potential applications in adapting models
to new domains and tasks, such as conditional generation or image segmentation.
The structure of diffusion models allows us to perform approximate inference by
iterating differentiation through the fixed denoising network enriched with
different amounts of noise at each step. Considering many noised versions of
$\mathbf{x}$ in evaluation of its fitness is a novel search mechanism that may
lead to new algorithms for solving combinatorial optimization problems.
- Abstract(参考訳): 我々は、事前の $p(\mathbf{x})$ と補助制約 $c(\mathbf{x},\mathbf{y})$ からなるモデルにおいて、高次元データ $\mathbf{x}$ を推測する問題を考える。
本稿では,前者は独立に訓練された拡散生成モデルである。
補助的な制約は、微分可能な形式を持つことが期待されているが、様々なソースから来ることができる。
このような推論は拡散モデルをプラグアンドプレイモジュールに変えるため、条件生成やイメージセグメンテーションといった新しい領域やタスクにモデルを適用する際の潜在的な応用範囲が生まれる。
拡散モデルの構造は、各ステップで異なるノイズ量で富む固定された復調ネットワークを通して微分を反復することで近似推論を行うことができる。
適合性の評価において多くのノイズの多い$\mathbf{x}$ を考えることは、組合せ最適化問題を解決する新しいアルゴリズムをもたらす新しい探索メカニズムである。
関連論文リスト
- Amortizing intractable inference in diffusion models for vision, language, and control [89.65631572949702]
本稿では,p(mathbfx)$以前の拡散生成モデルとブラックボックス制約,あるいは関数$r(mathbfx)$からなるモデルにおいて,データ上の後部サンプルである $mathbfxsim prm post(mathbfx)propto p(mathbfx)r(mathbfx)$について検討する。
我々は,データフリー学習目標である相対軌道バランスの正しさを,サンプルから抽出した拡散モデルの訓練のために証明する。
論文 参考訳(メタデータ) (2024-05-31T16:18:46Z) - Diffusion models for probabilistic programming [56.47577824219207]
拡散モデル変分推論(DMVI)は確率型プログラミング言語(PPL)における自動近似推論手法である
DMVIは実装が容易で、例えば正規化フローを用いた変分推論の欠点を伴わずに、PPLでヘイズルフリー推論が可能であり、基礎となるニューラルネットワークモデルに制約を課さない。
論文 参考訳(メタデータ) (2023-11-01T12:17:05Z) - Towards Faster Non-Asymptotic Convergence for Diffusion-Based Generative
Models [49.81937966106691]
我々は拡散モデルのデータ生成過程を理解するための非漸近理論のスイートを開発する。
従来の研究とは対照的に,本理論は基本的だが多目的な非漸近的アプローチに基づいて開発されている。
論文 参考訳(メタデータ) (2023-06-15T16:30:08Z) - Variational Diffusion Auto-encoder: Latent Space Extraction from
Pre-trained Diffusion Models [0.0]
可変オートエンコーダ(VAE)は、生成された画像の品質の問題に直面し、しばしば目立った曖昧さを示す。
この問題は、条件付きデータ分布を近似する非現実的な仮定である $p(textbfx | textbfz)$ が等方ガウス的であることに由来する。
本稿では,エンコーダを最適化することにより,既存の拡散モデルから潜在空間を抽出し,限界データのログ化を最大化する方法について述べる。
論文 参考訳(メタデータ) (2023-04-24T14:44:47Z) - Information-Theoretic Diffusion [18.356162596599436]
拡散モデルのデノイングは密度モデリングや画像生成において大きな進歩をもたらした。
情報理論における古典的な結果にインスパイアされた拡散モデルのための新しい数学的基礎を導入する。
論文 参考訳(メタデータ) (2023-02-07T23:03:07Z) - Unite and Conquer: Plug & Play Multi-Modal Synthesis using Diffusion
Models [54.1843419649895]
拡散確率モデル(DDPM)に基づく解を提案する。
他の生成モデルよりも拡散モデルを選択する動機は、拡散モデルの柔軟な内部構造に由来する。
提案手法は,複数のサブタスクで訓練された複数の拡散モデルを統一し,組み合わせたタスクを克服する。
論文 参考訳(メタデータ) (2022-12-01T18:59:55Z) - OCD: Learning to Overfit with Conditional Diffusion Models [95.1828574518325]
入力サンプルxに重みを条件付けした動的モデルを提案する。
基本モデルを x とそのラベル y 上で微調整することで得られる重みに一致することを学習する。
論文 参考訳(メタデータ) (2022-10-02T09:42:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。