論文の概要: A Dual Perspective on Decision-Focused Learning: Scalable Training via Dual-Guided Surrogates
- arxiv url: http://arxiv.org/abs/2511.04909v1
- Date: Fri, 07 Nov 2025 01:15:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.636619
- Title: A Dual Perspective on Decision-Focused Learning: Scalable Training via Dual-Guided Surrogates
- Title(参考訳): 決定焦点学習の2つの視点:デュアルガイドサーロゲートによるスケーラブルなトレーニング
- Authors: Paula Rodriguez-Diaz, Kirk Bansak Elisabeth Paulson,
- Abstract要約: 意思決定にフォーカスした学習は、予測がどのようにリフレッシュするかを意識してモデルを訓練し、下流の意思決定のパフォーマンスを改善します。
最先端のメソッドはソルバを通じて区別するか、タスク固有のサロゲートに依存します。
本稿では,2変数を用いた形状学習とデュアルガイドロス(DGL)の導入について述べる。
DGLは最先端のDFLメソッドと一致または超過するが、呼び出しははるかに少なく、トレーニング時間もかなり少ない。
- 参考スコア(独自算出の注目度): 1.7100385719232911
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many real-world decisions are made under uncertainty by solving optimization problems using predicted quantities. This predict-then-optimize paradigm has motivated decision-focused learning, which trains models with awareness of how the optimizer uses predictions, improving the performance of downstream decisions. Despite its promise, scaling is challenging: state-of-the-art methods either differentiate through a solver or rely on task-specific surrogates, both of which require frequent and expensive calls to an optimizer, often a combinatorial one. In this paper, we leverage dual variables from the downstream problem to shape learning and introduce Dual-Guided Loss (DGL), a simple, scalable objective that preserves decision alignment while reducing solver dependence. We construct DGL specifically for combinatorial selection problems with natural one-of-many constraints, such as matching, knapsack, and shortest path. Our approach (a) decouples optimization from gradient updates by solving the downstream problem only periodically; (b) between refreshes, trains on dual-adjusted targets using simple differentiable surrogate losses; and (c) as refreshes become less frequent, drives training cost toward standard supervised learning while retaining strong decision alignment. We prove that DGL has asymptotically diminishing decision regret, analyze runtime complexity, and show on two problem classes that DGL matches or exceeds state-of-the-art DFL methods while using far fewer solver calls and substantially less training time. Code is available at https://github.com/paularodr/Dual-Guided-Learning.
- Abstract(参考訳): 多くの実世界の決定は予測量を用いて最適化問題を解くことによって不確実性の下でなされる。
この予測を最適化するパラダイムは、決定中心の学習を動機付け、最適化者が予測をどのように使っているかを認識してモデルを訓練し、下流の意思決定のパフォーマンスを向上させる。
最先端のメソッドはソルバを通じて区別するか、タスク固有のサロゲートに依存します。どちらもオプティマイザへの頻繁で高価な呼び出しを必要とします。
本稿では、下流問題からの双対変数を利用して、解法依存を低減しつつ、意思決定の整合性を維持するためのシンプルでスケーラブルな目的であるDual-Guided Loss(DGL)を導入する。
DGLは、マッチング、knapsack、最短経路などの自然な一対一制約を持つ組合せ選択問題に特化して構築する。
私たちのアプローチ
(a)下流問題のみを周期的に解決することで、勾配更新から最適化を分離する。
(b)リフレッシュ、簡易な相違による二重調整対象の列車、及び
(c)リフレッシュの頻度が低くなると、学習費は標準教師あり学習に向けられ、意思決定の整合性は高い。
DGLは決定の後悔を漸近的に減らし、ランタイムの複雑さを分析し、DGLが最先端のDFLメソッドと一致するか超過する2つの問題クラスを示す。
コードはhttps://github.com/paularodr/Dual-Guided-Learning.comで公開されている。
関連論文リスト
- Accelerating Wireless Distributed Learning via Hybrid Split and Federated Learning Optimization [58.557093803478274]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、無線ネットワークにおいて効果的な分散ラーニングパラダイムである。
ハイブリッドスプリットとフェデレート学習(HSFL)の両方の利点を活用するために、一部のデバイスはFLモードで動作し、その他のデバイスはSLモードで動作することができる。
本論文は,(1)学習モードの選択が全体の学習性能にどのように影響するか,2)バッチサイズとどのように相互作用するか,という3つの重要な疑問に対処することによって,HSFLを加速することを目的としている。
論文 参考訳(メタデータ) (2025-11-25T02:29:22Z) - Online Decision-Focused Learning [74.3205104323777]
意思決定中心学習(DFL)は、意思決定タスクで予測出力が使用されるモデルのトレーニングパラダイムとして、ますます人気が高まっている。
本稿では,目的関数を規則化し,その相違を解消し,非最適関数を克服する方法を検討する。
また、クナップサック実験におけるアルゴリズムの有効性を示し、2つの標準ベンチマークを上回りました。
論文 参考訳(メタデータ) (2025-05-19T10:40:30Z) - Efficient End-to-End Learning for Decision-Making: A Meta-Optimization Approach [5.84228364962637]
本稿では,最適化問題を近似する効率的なアルゴリズムを学習するメタ最適化手法を提案する。
我々は,学習方法の指数収束,近似保証,一般化境界を証明した。
この手法は計算効率に優れ、高品質な近似を高速に生成し、既存の手法と比較して問題の大きさでスケールする。
論文 参考訳(メタデータ) (2025-05-16T15:27:50Z) - Learning to Optimize for Mixed-Integer Non-linear Programming with Feasibility Guarantees [20.469394148261838]
混合整数非線形プログラム(MINLP)は、エネルギーシステムや輸送ほど多様な領域で発生するが、解くのは非常に難しい。
2つの整数補正層を持つ新しいL2O手法を提案し、解の積分性を保証するとともに、解の実現性を確保するための射影ステップを提案する。
実験の結果,提案手法は最大数万変数のMINLPを効率よく解き,ミリ秒以内の高品質な解が得られることがわかった。
論文 参考訳(メタデータ) (2024-10-14T20:14:39Z) - Learning Constrained Optimization with Deep Augmented Lagrangian Methods [54.22290715244502]
機械学習(ML)モデルは、制約付き最適化ソルバをエミュレートするために訓練される。
本稿では,MLモデルを用いて2つの解推定を直接予測する手法を提案する。
これにより、双対目的が損失関数であるエンドツーエンドのトレーニングスキームと、双対上昇法をエミュレートした原始的実現可能性への解推定を可能にする。
論文 参考訳(メタデータ) (2024-03-06T04:43:22Z) - Simple Stochastic and Online Gradient DescentAlgorithms for Pairwise
Learning [65.54757265434465]
ペアワイズ学習(Pairwise learning)とは、損失関数がペアインスタンスに依存するタスクをいう。
オンライン降下(OGD)は、ペアワイズ学習でストリーミングデータを処理する一般的なアプローチである。
本稿では,ペアワイズ学習のための手法について,シンプルでオンラインな下降を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:10:48Z) - Learning MDPs from Features: Predict-Then-Optimize for Sequential
Decision Problems by Reinforcement Learning [52.74071439183113]
我々は、強化学習を通して解決された逐次決定問題(MDP)の文脈における予測列最適化フレームワークについて検討した。
2つの重要な計算課題は、意思決定中心の学習をMDPに適用することである。
論文 参考訳(メタデータ) (2021-06-06T23:53:31Z) - Combining Deep Learning and Optimization for Security-Constrained
Optimal Power Flow [94.24763814458686]
セキュリティに制約のある最適電力フロー(SCOPF)は、電力システムの基本である。
SCOPF問題におけるAPRのモデル化は、複雑な大規模混合整数プログラムをもたらす。
本稿では,ディープラーニングとロバスト最適化を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T12:38:21Z) - Unsupervised Deep Learning for Optimizing Wireless Systems with
Instantaneous and Statistic Constraints [29.823814915538463]
我々は、教師なしのディープラーニングを用いて、瞬時的制約と統計的制約の両方で、双方の問題を解決する統一的な枠組みを確立する。
教師なし学習は、最適政策の違反確率と近似精度の観点から教師あり学習より優れていることを示す。
論文 参考訳(メタデータ) (2020-05-30T13:37:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。