論文の概要: Gradient Guidance for Diffusion Models: An Optimization Perspective
- arxiv url: http://arxiv.org/abs/2404.14743v1
- Date: Tue, 23 Apr 2024 04:51:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-24 15:10:30.623586
- Title: Gradient Guidance for Diffusion Models: An Optimization Perspective
- Title(参考訳): 拡散モデルのためのグラディエントガイダンス:最適化の視点から
- Authors: Yingqing Guo, Hui Yuan, Yukang Yang, Minshuo Chen, Mengdi Wang,
- Abstract要約: 本稿では,ガイド付きスコアベースサンプリングプロセスの理論的側面について検討する。
事前学習した拡散モデルのサンプリング過程に勾配ガイダンスを加えることは、基本的に正規化最適化問題の解法と等価であることを示す。
- 参考スコア(独自算出の注目度): 45.6080199096424
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion models have demonstrated empirical successes in various applications and can be adapted to task-specific needs via guidance. This paper introduces a form of gradient guidance for adapting or fine-tuning diffusion models towards user-specified optimization objectives. We study the theoretic aspects of a guided score-based sampling process, linking the gradient-guided diffusion model to first-order optimization. We show that adding gradient guidance to the sampling process of a pre-trained diffusion model is essentially equivalent to solving a regularized optimization problem, where the regularization term acts as a prior determined by the pre-training data. Diffusion models are able to learn data's latent subspace, however, explicitly adding the gradient of an external objective function to the sample process would jeopardize the structure in generated samples. To remedy this issue, we consider a modified form of gradient guidance based on a forward prediction loss, which leverages the pre-trained score function to preserve the latent structure in generated samples. We further consider an iteratively fine-tuned version of gradient-guided diffusion where one can query gradients at newly generated data points and update the score network using new samples. This process mimics a first-order optimization iteration in expectation, for which we proved O(1/K) convergence rate to the global optimum when the objective function is concave.
- Abstract(参考訳): 拡散モデルは様々なアプリケーションで経験的な成功を示しており、ガイダンスを通じてタスク固有のニーズに適応することができる。
本稿では,ユーザが指定した最適化目標に対する拡散モデルを適応あるいは微調整するための勾配ガイダンスの形式を紹介する。
本研究では、勾配誘導拡散モデルと1次最適化をリンクしたスコアベースサンプリングプロセスの理論的側面について検討する。
事前学習した拡散モデルのサンプリングプロセスに勾配ガイダンスを加えることは、基本的には正規化最適化問題の解法と等価であり、正規化項は事前学習データによって決定された事前処理として機能することを示す。
拡散モデルはデータの潜在部分空間を学習できるが、サンプルプロセスに外部目的関数の勾配を明示的に加えると、生成されたサンプルの構造が損なわれる。
この問題を解決するために,前向きの予測損失に基づく修正型勾配誘導について検討し,事前学習したスコア関数を用いて,生成したサンプルの潜伏構造を保存する。
さらに,新たに生成されたデータポイントの勾配を問合せし,新たなサンプルを用いてスコアネットワークを更新する,勾配誘導拡散の反復的微調整版について考察する。
このプロセスは、O(1/K)収束率を、目的関数が凹凸であるときに大域最適に証明した期待の1次最適化反復を模倣する。
関連論文リスト
- Diffusion Models as Constrained Samplers for Optimization with Unknown
Constraints [39.54265889656945]
拡散モデルを用いてデータ多様体内で最適化を行う。
ボルツマン分布の積からサンプリング問題として元の最適化問題を再構成する。
提案手法は,従来の最先端のベースラインよりも優れた,あるいは同等のパフォーマンスを達成できることを示す。
論文 参考訳(メタデータ) (2024-02-28T03:09:12Z) - Self-Supervised Dataset Distillation for Transfer Learning [77.4714995131992]
ラベルなしデータセットを、効率的な自己教師付き学習(SSL)のための小さな合成サンプル群に蒸留する新しい問題を提案する。
両レベル最適化におけるSSL目標に対する合成サンプルの勾配は、データ拡張やマスキングから生じるランダム性から、テキストバイアスを受けていることを最初に証明する。
転送学習を含む様々な応用における本手法の有効性を実証的に検証する。
論文 参考訳(メタデータ) (2023-10-10T10:48:52Z) - DF2: Distribution-Free Decision-Focused Learning [53.2476224456902]
決定中心学習(DFL)は近年,予測最適化問題に対する強力なアプローチとして出現している。
既存のエンドツーエンドDFL法は、モデル誤差、サンプル平均近似誤差、予測対象の分布に基づくパラメータ化の3つの重大なボトルネックによって妨げられている。
DF2は,これら3つのボトルネックに明示的に対処するために設計された,初となるテキストフリーな意思決定型学習手法である。
論文 参考訳(メタデータ) (2023-08-11T00:44:46Z) - Sampling from Gaussian Process Posteriors using Stochastic Gradient
Descent [43.097493761380186]
勾配アルゴリズムは線形系を解くのに有効な方法である。
最適値に収束しない場合であっても,勾配降下は正確な予測を導出することを示す。
実験的に、勾配降下は十分に大規模または不条件の回帰タスクにおいて最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-06-20T15:07:37Z) - Protein Design with Guided Discrete Diffusion [67.06148688398677]
タンパク質設計における一般的なアプローチは、生成モデルと条件付きサンプリングのための識別モデルを組み合わせることである。
離散拡散モデルのためのガイダンス手法であるdiffusioN Optimized Smpling (NOS)を提案する。
NOSは、構造に基づく手法の重要な制限を回避し、シーケンス空間で直接設計を行うことができる。
論文 参考訳(メタデータ) (2023-05-31T16:31:24Z) - Towards Controllable Diffusion Models via Reward-Guided Exploration [15.857464051475294]
強化学習(RL)による拡散モデルの学習段階を導く新しい枠組みを提案する。
RLは、政策そのものではなく、指数スケールの報酬に比例したペイオフ分布からのサンプルによる政策勾配を計算することができる。
3次元形状と分子生成タスクの実験は、既存の条件拡散モデルよりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-04-14T13:51:26Z) - Reflected Diffusion Models [93.26107023470979]
本稿では,データのサポートに基づいて進化する反射微分方程式を逆転する反射拡散モデルを提案する。
提案手法は,一般化されたスコアマッチング損失を用いてスコア関数を学習し,標準拡散モデルの主要成分を拡張する。
論文 参考訳(メタデータ) (2023-04-10T17:54:38Z) - A Variational Perspective on Diffusion-Based Generative Models and Score
Matching [8.93483643820767]
連続時間生成拡散の確率推定のための変分フレームワークを導出する。
本研究は,プラグイン逆SDEの可能性の低い境界を最大化することと,スコアマッチング損失の最小化が等価であることを示す。
論文 参考訳(メタデータ) (2021-06-05T05:50:36Z) - Differentiable Agent-Based Simulation for Gradient-Guided
Simulation-Based Optimization [0.0]
勾配推定法は局所最適化に向けて最適化を行うのに利用できる。
高入力次元の信号タイミング最適化問題では、勾配に基づく手法の方がかなり優れた性能を示す。
論文 参考訳(メタデータ) (2021-03-23T11:58:21Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。