論文の概要: Prediction Loss Guided Decision-Focused Learning
- arxiv url: http://arxiv.org/abs/2509.08359v1
- Date: Wed, 10 Sep 2025 07:49:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 15:16:52.347064
- Title: Prediction Loss Guided Decision-Focused Learning
- Title(参考訳): 予測損失を導出した意思決定型学習
- Authors: Haeun Jeon, Hyunglip Bae, Chanyeong Kim, Yongjae Lee, Woo Chang Kim,
- Abstract要約: 決定中心学習(DFL)は、決定品質を直接エンドツーエンドで最適化することで予測モデルを訓練する。
PFLはより安定した最適化をもたらすが、下流の意思決定品質を見落としている。
本稿では, 予測損失勾配を用いて決定損失勾配を摂動させ, 更新方向を構築するという, 単純かつ効果的な手法を提案する。
- 参考スコア(独自算出の注目度): 33.28196791099554
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Decision-making under uncertainty is often considered in two stages: predicting the unknown parameters, and then optimizing decisions based on predictions. While traditional prediction-focused learning (PFL) treats these two stages separately, decision-focused learning (DFL) trains the predictive model by directly optimizing the decision quality in an end-to-end manner. However, despite using exact or well-approximated gradients, vanilla DFL often suffers from unstable convergence due to its flat-and-sharp loss landscapes. In contrast, PFL yields more stable optimization, but overlooks the downstream decision quality. To address this, we propose a simple yet effective approach: perturbing the decision loss gradient using the prediction loss gradient to construct an update direction. Our method requires no additional training and can be integrated with any DFL solvers. Using the sigmoid-like decaying parameter, we let the prediction loss gradient guide the decision loss gradient to train a predictive model that optimizes decision quality. Also, we provide a theoretical convergence guarantee to Pareto stationary point under mild assumptions. Empirically, we demonstrate our method across three stochastic optimization problems, showing promising results compared to other baselines. We validate that our approach achieves lower regret with more stable training, even in situations where either PFL or DFL struggles.
- Abstract(参考訳): 不確実性の下での意思決定は、未知のパラメータを予測し、予測に基づいて決定を最適化する、という2つの段階においてしばしば考慮される。
従来の予測中心学習(PFL)はこれら2つの段階を別々に扱うが、決定中心学習(DFL)は、決定品質を直接エンドツーエンドで最適化することで予測モデルを訓練する。
しかし、正確にあるいはよく近似された勾配を用いるにもかかわらず、バニラDFLは平らでシャープな景観のために不安定な収束に悩まされることが多い。
対照的に、PFLはより安定した最適化をもたらすが、下流の判定品質を見落としている。
これを解決するために,予測損失勾配を用いて決定損失勾配を摂動させ,更新方向を構築するという,シンプルで効果的な手法を提案する。
我々の手法は追加の訓練を必要とせず、任意のDFLソルバと統合できる。
我々は,シグモイド様減衰パラメータを用いて,予測損失勾配を導出し,決定品質を最適化する予測モデルを訓練する。
また、穏やかな仮定の下でパレート定常点に対して理論的収束を保証する。
実験により,3つの確率的最適化問題に対して提案手法を実証し,他のベースラインと比較して有望な結果を示した。
PFL と DFL のどちらかが苦戦している状況においても,より安定したトレーニングを行うことで,我々のアプローチが低い後悔を達成できることを確認した。
関連論文リスト
- Online Decision-Focused Learning [63.83903681295497]
意思決定中心学習(DFL)は、意思決定タスクで出力が使用される予測モデルを訓練するパラダイムとして、ますます人気が高まっている。
対象関数が時間とともに進化しない動的環境におけるDFLについて検討する。
決定空間が単純空間であるときと一般有界凸ポリトープであるときの両方において、期待される動的後悔の限界を確立する。
論文 参考訳(メタデータ) (2025-05-19T10:40:30Z) - Gen-DFL: Decision-Focused Generative Learning for Robust Decision Making [48.62706690668867]
意思決定型生成学習(Gen-DFL)は、生成モデルを利用して不確実性を適応的にモデル化し、意思決定品質を向上させる新しいフレームワークである。
本論文は,Gen-DFLが従来のDFLと比較して,最悪の性能バウンダリを改善できることを理論的に示す。
論文 参考訳(メタデータ) (2025-02-08T06:52:11Z) - Uncertainty-Penalized Direct Preference Optimization [52.387088396044206]
我々は、優先不確実性ペナル化スキームを導入し、DPOの悲観的な枠組みを開発する。
ペナル化は、不確実なサンプルの損失勾配を減衰させる損失の補正として機能する。
我々は,バニラDPOと比較して全体的な性能が向上し,高い不確実性選択/拒絶反応によるプロンプトの完成度も向上した。
論文 参考訳(メタデータ) (2024-10-26T14:24:37Z) - End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - On the Robustness of Decision-Focused Learning [0.0]
決定焦点学習(Decision-Focused Learning, DFL)は、機械学習(ML)モデルを訓練し、不完全な最適化問題の欠落パラメータを予測するための新興学習パラダイムである。
DFLは、予測と最適化タスクを統合することで、エンドツーエンドシステムでMLモデルをトレーニングし、トレーニングとテストの目的の整合性を向上させる。
論文 参考訳(メタデータ) (2023-11-28T04:34:04Z) - Robust Losses for Decision-Focused Learning [2.9652474178611405]
決定にフォーカスした学習は、最適下決定を行うことで後悔を最小限に抑えるために予測モデルを訓練することを目的としている。
経験的最適決定は期待された最適決定と大きく異なるため、経験的後悔は非効果的な代理となり得る。
より強固に予測された後悔を近似する3つの新しい損失関数を提案する。
論文 参考訳(メタデータ) (2023-10-06T15:45:10Z) - DF2: Distribution-Free Decision-Focused Learning [30.288876294435294]
決定中心学習(DFL)は,予測列最適化問題に対する強力なアプローチとして登場した。
DFLはモデル誤差、サンプル平均近似誤差、近似誤差の3つのボトルネックに直面している。
本稿では,この3つのボトルネックを緩和する決定自由学習手法であるDF2を提案する。
論文 参考訳(メタデータ) (2023-08-11T00:44:46Z) - Learning MDPs from Features: Predict-Then-Optimize for Sequential
Decision Problems by Reinforcement Learning [52.74071439183113]
我々は、強化学習を通して解決された逐次決定問題(MDP)の文脈における予測列最適化フレームワークについて検討した。
2つの重要な計算課題は、意思決定中心の学習をMDPに適用することである。
論文 参考訳(メタデータ) (2021-06-06T23:53:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。