論文の概要: A Dual Perspective on Decision-Focused Learning: Scalable Training via Dual-Guided Surrogates
- arxiv url: http://arxiv.org/abs/2511.04909v1
- Date: Fri, 07 Nov 2025 01:15:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.636619
- Title: A Dual Perspective on Decision-Focused Learning: Scalable Training via Dual-Guided Surrogates
- Title(参考訳): 決定焦点学習の2つの視点:デュアルガイドサーロゲートによるスケーラブルなトレーニング
- Authors: Paula Rodriguez-Diaz, Kirk Bansak Elisabeth Paulson,
- Abstract要約: 意思決定にフォーカスした学習は、予測がどのようにリフレッシュするかを意識してモデルを訓練し、下流の意思決定のパフォーマンスを改善します。
最先端のメソッドはソルバを通じて区別するか、タスク固有のサロゲートに依存します。
本稿では,2変数を用いた形状学習とデュアルガイドロス(DGL)の導入について述べる。
DGLは最先端のDFLメソッドと一致または超過するが、呼び出しははるかに少なく、トレーニング時間もかなり少ない。
- 参考スコア(独自算出の注目度): 1.7100385719232911
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many real-world decisions are made under uncertainty by solving optimization problems using predicted quantities. This predict-then-optimize paradigm has motivated decision-focused learning, which trains models with awareness of how the optimizer uses predictions, improving the performance of downstream decisions. Despite its promise, scaling is challenging: state-of-the-art methods either differentiate through a solver or rely on task-specific surrogates, both of which require frequent and expensive calls to an optimizer, often a combinatorial one. In this paper, we leverage dual variables from the downstream problem to shape learning and introduce Dual-Guided Loss (DGL), a simple, scalable objective that preserves decision alignment while reducing solver dependence. We construct DGL specifically for combinatorial selection problems with natural one-of-many constraints, such as matching, knapsack, and shortest path. Our approach (a) decouples optimization from gradient updates by solving the downstream problem only periodically; (b) between refreshes, trains on dual-adjusted targets using simple differentiable surrogate losses; and (c) as refreshes become less frequent, drives training cost toward standard supervised learning while retaining strong decision alignment. We prove that DGL has asymptotically diminishing decision regret, analyze runtime complexity, and show on two problem classes that DGL matches or exceeds state-of-the-art DFL methods while using far fewer solver calls and substantially less training time. Code is available at https://github.com/paularodr/Dual-Guided-Learning.
- Abstract(参考訳): 多くの実世界の決定は予測量を用いて最適化問題を解くことによって不確実性の下でなされる。
この予測を最適化するパラダイムは、決定中心の学習を動機付け、最適化者が予測をどのように使っているかを認識してモデルを訓練し、下流の意思決定のパフォーマンスを向上させる。
最先端のメソッドはソルバを通じて区別するか、タスク固有のサロゲートに依存します。どちらもオプティマイザへの頻繁で高価な呼び出しを必要とします。
本稿では、下流問題からの双対変数を利用して、解法依存を低減しつつ、意思決定の整合性を維持するためのシンプルでスケーラブルな目的であるDual-Guided Loss(DGL)を導入する。
DGLは、マッチング、knapsack、最短経路などの自然な一対一制約を持つ組合せ選択問題に特化して構築する。
私たちのアプローチ
(a)下流問題のみを周期的に解決することで、勾配更新から最適化を分離する。
(b)リフレッシュ、簡易な相違による二重調整対象の列車、及び
(c)リフレッシュの頻度が低くなると、学習費は標準教師あり学習に向けられ、意思決定の整合性は高い。
DGLは決定の後悔を漸近的に減らし、ランタイムの複雑さを分析し、DGLが最先端のDFLメソッドと一致するか超過する2つの問題クラスを示す。
コードはhttps://github.com/paularodr/Dual-Guided-Learning.comで公開されている。
関連論文リスト
- Online Decision-Focused Learning [74.3205104323777]
意思決定中心学習(DFL)は、意思決定タスクで予測出力が使用されるモデルのトレーニングパラダイムとして、ますます人気が高まっている。
本稿では,目的関数を規則化し,その相違を解消し,非最適関数を克服する方法を検討する。
また、クナップサック実験におけるアルゴリズムの有効性を示し、2つの標準ベンチマークを上回りました。
論文 参考訳(メタデータ) (2025-05-19T10:40:30Z) - Efficient End-to-End Learning for Decision-Making: A Meta-Optimization Approach [5.84228364962637]
本稿では,最適化問題を近似する効率的なアルゴリズムを学習するメタ最適化手法を提案する。
我々は,学習方法の指数収束,近似保証,一般化境界を証明した。
この手法は計算効率に優れ、高品質な近似を高速に生成し、既存の手法と比較して問題の大きさでスケールする。
論文 参考訳(メタデータ) (2025-05-16T15:27:50Z) - Learning to Optimize for Mixed-Integer Non-linear Programming with Feasibility Guarantees [20.469394148261838]
混合整数非線形プログラム(MINLP)は、エネルギーシステムや輸送ほど多様な領域で発生するが、解くのは非常に難しい。
2つの整数補正層を持つ新しいL2O手法を提案し、解の積分性を保証するとともに、解の実現性を確保するための射影ステップを提案する。
実験の結果,提案手法は最大数万変数のMINLPを効率よく解き,ミリ秒以内の高品質な解が得られることがわかった。
論文 参考訳(メタデータ) (2024-10-14T20:14:39Z) - Learning Constrained Optimization with Deep Augmented Lagrangian Methods [54.22290715244502]
機械学習(ML)モデルは、制約付き最適化ソルバをエミュレートするために訓練される。
本稿では,MLモデルを用いて2つの解推定を直接予測する手法を提案する。
これにより、双対目的が損失関数であるエンドツーエンドのトレーニングスキームと、双対上昇法をエミュレートした原始的実現可能性への解推定を可能にする。
論文 参考訳(メタデータ) (2024-03-06T04:43:22Z) - Simple Stochastic and Online Gradient DescentAlgorithms for Pairwise
Learning [65.54757265434465]
ペアワイズ学習(Pairwise learning)とは、損失関数がペアインスタンスに依存するタスクをいう。
オンライン降下(OGD)は、ペアワイズ学習でストリーミングデータを処理する一般的なアプローチである。
本稿では,ペアワイズ学習のための手法について,シンプルでオンラインな下降を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:10:48Z) - Combining Deep Learning and Optimization for Security-Constrained
Optimal Power Flow [94.24763814458686]
セキュリティに制約のある最適電力フロー(SCOPF)は、電力システムの基本である。
SCOPF問題におけるAPRのモデル化は、複雑な大規模混合整数プログラムをもたらす。
本稿では,ディープラーニングとロバスト最適化を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T12:38:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。