論文の概要: Score-based Generative Modeling Through Backward Stochastic Differential
Equations: Inversion and Generation
- arxiv url: http://arxiv.org/abs/2304.13224v1
- Date: Wed, 26 Apr 2023 01:15:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-27 15:57:46.236809
- Title: Score-based Generative Modeling Through Backward Stochastic Differential
Equations: Inversion and Generation
- Title(参考訳): 後方確率微分方程式によるスコアベース生成モデル:反転と生成
- Authors: Zihao Wang
- Abstract要約: 提案したBSDEベースの拡散モデルは、機械学習における微分方程式(SDE)の適用を拡大する拡散モデリングの新しいアプローチを示す。
モデルの理論的保証、スコアマッチングにリプシッツネットワークを用いることの利点、および拡散反転、条件拡散、不確実性定量化など様々な分野への応用の可能性を示す。
- 参考スコア(独自算出の注目度): 6.2255027793924285
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The proposed BSDE-based diffusion model represents a novel approach to
diffusion modeling, which extends the application of stochastic differential
equations (SDEs) in machine learning. Unlike traditional SDE-based diffusion
models, our model can determine the initial conditions necessary to reach a
desired terminal distribution by adapting an existing score function. We
demonstrate the theoretical guarantees of the model, the benefits of using
Lipschitz networks for score matching, and its potential applications in
various areas such as diffusion inversion, conditional diffusion, and
uncertainty quantification. Our work represents a contribution to the field of
score-based generative learning and offers a promising direction for solving
real-world problems.
- Abstract(参考訳): 提案するbsdeに基づく拡散モデルは、機械学習における確率微分方程式(sdes)の適用を拡張する拡散モデリングの新しいアプローチである。
従来のSDEに基づく拡散モデルとは異なり、既存のスコア関数を適用することにより、所望の端末分布に到達するために必要な初期条件を決定することができる。
モデルの理論的保証、スコアマッチングにリプシッツネットワークを用いることの利点、および拡散反転、条件拡散、不確実性定量化など様々な分野への応用の可能性を示す。
我々の研究は、スコアベースの生成学習の分野への貢献を表し、現実世界の問題を解決するための有望な方向性を提供する。
関連論文リスト
- Score-based Diffusion Models via Stochastic Differential Equations -- a
Technical Tutorial [6.164223149261533]
この記事は主に初心者を現場に紹介することを目的としており、実践者は新しいモデルやアルゴリズムを設計するのに有用な分析方法を見出すかもしれない。
本稿では,SDE/ODEサンプリング,スコアマッチング効率,一貫性モデル,強化学習を含む拡散モデルにおける2つの柱について論じる。
論文 参考訳(メタデータ) (2024-02-12T08:52:35Z) - CoCoGen: Physically-Consistent and Conditioned Score-based Generative
Models for Forward and Inverse Problems [1.2277343096128712]
この研究は生成モデルの到達範囲を物理的問題領域に拡張する。
基礎となるPDEとの整合性を促進するための効率的なアプローチを提案する。
各種物理課題におけるスコアベース生成モデルの可能性と汎用性を示す。
論文 参考訳(メタデータ) (2023-12-16T19:56:10Z) - Closing the ODE-SDE gap in score-based diffusion models through the
Fokker-Planck equation [0.562479170374811]
スコアベース拡散モデルのトレーニング時に生じる力学と近似の範囲を厳密に記述する。
従来のスコアベース拡散モデルでは, ODE-とSDE-誘導分布に有意な差が認められることを示す。
論文 参考訳(メタデータ) (2023-11-27T16:44:50Z) - Gaussian Mixture Solvers for Diffusion Models [84.83349474361204]
本稿では,拡散モデルのためのGMSと呼ばれる,SDEに基づく新しい解法について紹介する。
画像生成およびストロークベース合成におけるサンプル品質の観点から,SDEに基づく多くの解法よりも優れる。
論文 参考訳(メタデータ) (2023-11-02T02:05:38Z) - Diffusion models for probabilistic programming [56.47577824219207]
拡散モデル変分推論(DMVI)は確率型プログラミング言語(PPL)における自動近似推論手法である
DMVIは実装が容易で、例えば正規化フローを用いた変分推論の欠点を伴わずに、PPLでヘイズルフリー推論が可能であり、基礎となるニューラルネットワークモデルに制約を課さない。
論文 参考訳(メタデータ) (2023-11-01T12:17:05Z) - Variance-Preserving-Based Interpolation Diffusion Models for Speech
Enhancement [53.2171981279647]
本稿では,VP-および分散拡散(VE)に基づく拡散法の両方をカプセル化するフレームワークを提案する。
本研究では,拡散モデルで発生する一般的な困難を解析し,性能の向上とモデルトレーニングの容易化を図る。
我々は,提案手法の有効性を示すために,公開ベンチマークを用いたいくつかの手法によるモデルの評価を行った。
論文 参考訳(メタデータ) (2023-06-14T14:22:22Z) - A Geometric Perspective on Diffusion Models [60.69328526215776]
本稿では,人気のある分散拡散型SDEのODEに基づくサンプリングを検証し,そのサンプリングダイナミクスの興味深い構造を明らかにした。
我々は、最適なODEベースのサンプリングと古典的な平均シフト(モード探索)アルゴリズムの理論的関係を確立する。
論文 参考訳(メタデータ) (2023-05-31T15:33:16Z) - Reflected Diffusion Models [93.26107023470979]
本稿では,データのサポートに基づいて進化する反射微分方程式を逆転する反射拡散モデルを提案する。
提案手法は,一般化されたスコアマッチング損失を用いてスコア関数を学習し,標準拡散モデルの主要成分を拡張する。
論文 参考訳(メタデータ) (2023-04-10T17:54:38Z) - An optimal control perspective on diffusion-based generative modeling [6.886054809041191]
微分方程式(SDE)に基づく最適制御と生成モデルとの接続を確立する。
特にハミルトン・ヤコビ・ベルマン方程式を導出し、基礎となるSDE限界の対数密度の進化を制御している。
非正規化密度から抽出する新しい拡散法を開発した。
論文 参考訳(メタデータ) (2022-11-02T17:59:09Z) - A Flexible Diffusion Model [18.723160658185115]
本稿では,拡散モデル,特に前方SDEの空間的部分のパラメータ化のためのフレームワークを提案する。
抽象形式論は理論的な保証とともに導入され、それ以前の拡散モデルとの関係が活用される。
論文 参考訳(メタデータ) (2022-06-17T06:46:58Z) - Training Deep Energy-Based Models with f-Divergence Minimization [113.97274898282343]
深部エネルギーベースモデル(EBM)は分布パラメトリゼーションにおいて非常に柔軟であるが、計算的に困難である。
所望のf偏差を用いてEMMを訓練するための、f-EBMと呼ばれる一般的な変分フレームワークを提案する。
実験の結果,F-EBMは対照的なばらつきよりも優れており,KL以外のf-divergencesを用いたEBMの訓練の利点も示された。
論文 参考訳(メタデータ) (2020-03-06T23:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。