論文の概要: Diffusion-DFL: Decision-focused Diffusion Models for Stochastic Optimization
- arxiv url: http://arxiv.org/abs/2510.11590v1
- Date: Mon, 13 Oct 2025 16:31:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.457335
- Title: Diffusion-DFL: Decision-focused Diffusion Models for Stochastic Optimization
- Title(参考訳): 拡散-DFL:確率最適化のための決定中心拡散モデル
- Authors: Zihao Zhao, Christopher Yeh, Lingkai Kong, Kai Wang,
- Abstract要約: 決定中心学習(DFL)は、予測器を訓練することで予測モデリングと最適化を統合し、下流の意思決定目標を最適化する。
本稿では,不確かさパラメータの分布を表すために拡散モデルを訓練するDFL法を提案する。
我々の拡散DFLアプローチは、決定品質の強いベースラインを一貫して上回ることを示す。
- 参考スコア(独自算出の注目度): 15.091370734240234
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Decision-focused learning (DFL) integrates predictive modeling and optimization by training predictors to optimize the downstream decision target rather than merely minimizing prediction error. To date, existing DFL methods typically rely on deterministic point predictions, which are often insufficient to capture the intrinsic stochasticity of real-world environments. To address this challenge, we propose the first diffusion-based DFL approach, which trains a diffusion model to represent the distribution of uncertain parameters and optimizes the decision by solving a stochastic optimization with samples drawn from the diffusion model. Our contributions are twofold. First, we formulate diffusion DFL using the reparameterization trick, enabling end-to-end training through diffusion. While effective, it is memory and compute-intensive due to the need to differentiate through the diffusion sampling process. Second, we propose a lightweight score function estimator that uses only several forward diffusion passes and avoids backpropagation through the sampling. This follows from our results that backpropagating through stochastic optimization can be approximated by a weighted score function formulation. We empirically show that our diffusion DFL approach consistently outperforms strong baselines in decision quality. The source code for all experiments is available at the project repository: https://github.com/GT-KOALA/Diffusion_DFL.
- Abstract(参考訳): 決定中心学習(DFL)は、予測器を訓練することにより予測モデリングと最適化を統合し、単に予測誤差を最小限に抑えるのではなく、下流決定目標を最適化する。
現在まで、既存のDFL法は決定論的な点予測に依存しており、現実の環境の内在的確率性を捉えるには不十分であることが多い。
この課題に対処するため,拡散モデルを用いて不確かさパラメータの分布を表す拡散モデルを訓練し,拡散モデルから抽出したサンプルを用いて確率的最適化を解くことで決定を最適化するDFL手法を提案する。
私たちの貢献は2倍です。
まず、再パラメータ化手法を用いて拡散DFLを定式化し、拡散によるエンドツーエンドのトレーニングを可能にする。
有効ではあるが、拡散サンプリングプロセスを通じて差別化する必要があるため、メモリと計算集約性が高い。
第2に,数個の前方拡散パスしか使用せず,サンプリングによるバックプロパゲーションを回避する軽量スコア関数推定器を提案する。
この結果から,確率最適化によるバックプロパゲーションは重み付きスコア関数の定式化によって近似できることがわかった。
我々は,我々の拡散DFLアプローチが決定品質の強いベースラインを一貫して上回っていることを実証的に示す。
すべての実験のソースコードは、プロジェクトのリポジトリで入手できる。
関連論文リスト
- Fast Sampling for Flows and Diffusions with Lazy and Point Mass Stochastic Interpolants [5.492889521988414]
任意のスケジュール下で任意の拡散係数で微分方程式(SDE)のサンプルパスを変換する方法を証明する。
次に、補間フレームワークを拡張して、より大きな点質量スケジュールのクラスを許容する。
論文 参考訳(メタデータ) (2026-02-03T17:48:34Z) - DIVE: Inverting Conditional Diffusion Models for Discriminative Tasks [79.50756148780928]
本稿では,事前学習した拡散モデルを用いて識別課題を遂行する問題について検討する。
我々は、事前学習されたレイアウト・ツー・イメージ拡散モデルの「反転」により、事前学習した凍結生成拡散モデルの識別能力を分類タスクからより複雑なオブジェクト検出タスクに拡張する。
論文 参考訳(メタデータ) (2025-04-24T05:13:27Z) - Training-free Diffusion Model Alignment with Sampling Demons [15.400553977713914]
提案手法は,報酬関数やモデル再学習を介さずに,推論時の復調過程を導出するための最適化手法である。
提案手法は,高報酬に対応する領域の密度を最適化することにより,雑音分布の制御を行う。
実験の結果,提案手法は平均的美学のテキスト・ツー・イメージ生成を著しく改善することがわかった。
論文 参考訳(メタデータ) (2024-10-08T07:33:49Z) - Lotus: Diffusion-based Visual Foundation Model for High-quality Dense Prediction [29.834614425056355]
拡散に基づく視覚基盤モデルであるLotusを導入する。
特にLotusは、ノイズではなくアノテーションを直接予測するように訓練されており、有害な分散を避けることができる。
我々は,より正確できめ細かな予測が可能なディテールレザーと呼ばれる新しいチューニング戦略を導入する。
論文 参考訳(メタデータ) (2024-09-26T17:58:55Z) - Understanding Reinforcement Learning-Based Fine-Tuning of Diffusion Models: A Tutorial and Review [63.31328039424469]
このチュートリアルは、下流の報酬関数を最適化するための微調整拡散モデルのための方法を網羅的に調査する。
PPO,微分可能最適化,報酬重み付きMLE,値重み付きサンプリング,経路整合性学習など,様々なRLアルゴリズムの適用について説明する。
論文 参考訳(メタデータ) (2024-07-18T17:35:32Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Variational Schrödinger Diffusion Models [14.480273869571468]
Schr"odinger Bridge (SB) は拡散モデルにおける輸送計画の最適化手法として登場した。
我々は変分推論を利用してSBの前方スコア関数(変分スコア)を線形化する。
本稿では,多変量拡散過程と変分スコアを適応的に最適化して効率的な輸送を行う,変分Schr"odinger拡散モデル(VSDM)を提案する。
論文 参考訳(メタデータ) (2024-05-08T04:01:40Z) - Diffusion Models as Constrained Samplers for Optimization with Unknown Constraints [55.39203337683045]
拡散モデルを用いてデータ多様体内で最適化を行う。
目的関数の微分可能性に応じて,2つの異なるサンプリング手法を提案する。
提案手法は,従来の最先端のベースラインよりも優れた,あるいは同等のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-02-28T03:09:12Z) - Diffusion Models with Deterministic Normalizing Flow Priors [21.24885597341643]
フローと拡散モデルを正規化する手法であるDiNof(textbfDi$ffusion with $textbfNo$rmalizing $textbff$low priors)を提案する。
標準画像生成データセットの実験は、既存の手法よりも提案手法の利点を実証している。
論文 参考訳(メタデータ) (2023-09-03T21:26:56Z) - DF2: Distribution-Free Decision-Focused Learning [30.288876294435294]
決定中心学習(DFL)は,予測列最適化問題に対する強力なアプローチとして登場した。
DFLはモデル誤差、サンプル平均近似誤差、近似誤差の3つのボトルネックに直面している。
本稿では,この3つのボトルネックを緩和する決定自由学習手法であるDF2を提案する。
論文 参考訳(メタデータ) (2023-08-11T00:44:46Z) - Reconstructing Graph Diffusion History from a Single Snapshot [87.20550495678907]
A single SnapsHot (DASH) から拡散履歴を再構築するための新しいバリセンターの定式化を提案する。
本研究では,拡散パラメータ推定のNP硬度により,拡散パラメータの推定誤差が避けられないことを証明する。
また、DITTO(Diffusion hitting Times with Optimal proposal)という効果的な解法も開発している。
論文 参考訳(メタデータ) (2023-06-01T09:39:32Z) - Diffusion Models are Minimax Optimal Distribution Estimators [49.47503258639454]
拡散モデリングの近似と一般化能力について、初めて厳密な分析を行った。
実密度関数がベソフ空間に属し、経験値整合損失が適切に最小化されている場合、生成したデータ分布は、ほぼ最小の最適推定値が得られることを示す。
論文 参考訳(メタデータ) (2023-03-03T11:31:55Z) - Where to Diffuse, How to Diffuse, and How to Get Back: Automated
Learning for Multivariate Diffusions [22.04182099405728]
拡散に基づく生成モデル(DBGM)は、ターゲット雑音分布に摂動データを変換し、この推論拡散過程を逆にしてサンプルを生成する。
補助変数の数に対して、低いバウンドを最大化する方法を示す。
次に,特定対象雑音分布の拡散をパラメータ化する方法を示す。
論文 参考訳(メタデータ) (2023-02-14T18:57:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。