論文の概要: Diffusion-DFL: Decision-focused Diffusion Models for Stochastic Optimization
- arxiv url: http://arxiv.org/abs/2510.11590v1
- Date: Mon, 13 Oct 2025 16:31:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.457335
- Title: Diffusion-DFL: Decision-focused Diffusion Models for Stochastic Optimization
- Title(参考訳): 拡散-DFL:確率最適化のための決定中心拡散モデル
- Authors: Zihao Zhao, Christopher Yeh, Lingkai Kong, Kai Wang,
- Abstract要約: 決定中心学習(DFL)は、予測器を訓練することで予測モデリングと最適化を統合し、下流の意思決定目標を最適化する。
本稿では,不確かさパラメータの分布を表すために拡散モデルを訓練するDFL法を提案する。
我々の拡散DFLアプローチは、決定品質の強いベースラインを一貫して上回ることを示す。
- 参考スコア(独自算出の注目度): 15.091370734240234
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Decision-focused learning (DFL) integrates predictive modeling and optimization by training predictors to optimize the downstream decision target rather than merely minimizing prediction error. To date, existing DFL methods typically rely on deterministic point predictions, which are often insufficient to capture the intrinsic stochasticity of real-world environments. To address this challenge, we propose the first diffusion-based DFL approach, which trains a diffusion model to represent the distribution of uncertain parameters and optimizes the decision by solving a stochastic optimization with samples drawn from the diffusion model. Our contributions are twofold. First, we formulate diffusion DFL using the reparameterization trick, enabling end-to-end training through diffusion. While effective, it is memory and compute-intensive due to the need to differentiate through the diffusion sampling process. Second, we propose a lightweight score function estimator that uses only several forward diffusion passes and avoids backpropagation through the sampling. This follows from our results that backpropagating through stochastic optimization can be approximated by a weighted score function formulation. We empirically show that our diffusion DFL approach consistently outperforms strong baselines in decision quality. The source code for all experiments is available at the project repository: https://github.com/GT-KOALA/Diffusion_DFL.
- Abstract(参考訳): 決定中心学習(DFL)は、予測器を訓練することにより予測モデリングと最適化を統合し、単に予測誤差を最小限に抑えるのではなく、下流決定目標を最適化する。
現在まで、既存のDFL法は決定論的な点予測に依存しており、現実の環境の内在的確率性を捉えるには不十分であることが多い。
この課題に対処するため,拡散モデルを用いて不確かさパラメータの分布を表す拡散モデルを訓練し,拡散モデルから抽出したサンプルを用いて確率的最適化を解くことで決定を最適化するDFL手法を提案する。
私たちの貢献は2倍です。
まず、再パラメータ化手法を用いて拡散DFLを定式化し、拡散によるエンドツーエンドのトレーニングを可能にする。
有効ではあるが、拡散サンプリングプロセスを通じて差別化する必要があるため、メモリと計算集約性が高い。
第2に,数個の前方拡散パスしか使用せず,サンプリングによるバックプロパゲーションを回避する軽量スコア関数推定器を提案する。
この結果から,確率最適化によるバックプロパゲーションは重み付きスコア関数の定式化によって近似できることがわかった。
我々は,我々の拡散DFLアプローチが決定品質の強いベースラインを一貫して上回っていることを実証的に示す。
すべての実験のソースコードは、プロジェクトのリポジトリで入手できる。
関連論文リスト
- DIVE: Inverting Conditional Diffusion Models for Discriminative Tasks [79.50756148780928]
本稿では,事前学習した拡散モデルを用いて識別課題を遂行する問題について検討する。
我々は、事前学習されたレイアウト・ツー・イメージ拡散モデルの「反転」により、事前学習した凍結生成拡散モデルの識別能力を分類タスクからより複雑なオブジェクト検出タスクに拡張する。
論文 参考訳(メタデータ) (2025-04-24T05:13:27Z) - Training-free Diffusion Model Alignment with Sampling Demons [15.400553977713914]
提案手法は,報酬関数やモデル再学習を介さずに,推論時の復調過程を導出するための最適化手法である。
提案手法は,高報酬に対応する領域の密度を最適化することにより,雑音分布の制御を行う。
実験の結果,提案手法は平均的美学のテキスト・ツー・イメージ生成を著しく改善することがわかった。
論文 参考訳(メタデータ) (2024-10-08T07:33:49Z) - Lotus: Diffusion-based Visual Foundation Model for High-quality Dense Prediction [29.834614425056355]
拡散に基づく視覚基盤モデルであるLotusを導入する。
特にLotusは、ノイズではなくアノテーションを直接予測するように訓練されており、有害な分散を避けることができる。
我々は,より正確できめ細かな予測が可能なディテールレザーと呼ばれる新しいチューニング戦略を導入する。
論文 参考訳(メタデータ) (2024-09-26T17:58:55Z) - Diffusion Models with Deterministic Normalizing Flow Priors [21.24885597341643]
フローと拡散モデルを正規化する手法であるDiNof(textbfDi$ffusion with $textbfNo$rmalizing $textbff$low priors)を提案する。
標準画像生成データセットの実験は、既存の手法よりも提案手法の利点を実証している。
論文 参考訳(メタデータ) (2023-09-03T21:26:56Z) - DF2: Distribution-Free Decision-Focused Learning [30.288876294435294]
決定中心学習(DFL)は,予測列最適化問題に対する強力なアプローチとして登場した。
DFLはモデル誤差、サンプル平均近似誤差、近似誤差の3つのボトルネックに直面している。
本稿では,この3つのボトルネックを緩和する決定自由学習手法であるDF2を提案する。
論文 参考訳(メタデータ) (2023-08-11T00:44:46Z) - Reconstructing Graph Diffusion History from a Single Snapshot [87.20550495678907]
A single SnapsHot (DASH) から拡散履歴を再構築するための新しいバリセンターの定式化を提案する。
本研究では,拡散パラメータ推定のNP硬度により,拡散パラメータの推定誤差が避けられないことを証明する。
また、DITTO(Diffusion hitting Times with Optimal proposal)という効果的な解法も開発している。
論文 参考訳(メタデータ) (2023-06-01T09:39:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。