論文の概要: Score Function Gradient Estimation to Widen the Applicability of
Decision-Focused Learning
- arxiv url: http://arxiv.org/abs/2307.05213v1
- Date: Tue, 11 Jul 2023 12:32:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-12 15:05:25.562435
- Title: Score Function Gradient Estimation to Widen the Applicability of
Decision-Focused Learning
- Title(参考訳): 決定焦点学習の適用性を高めるためのスコア関数勾配推定
- Authors: Mattia Silvestri, Senne Berden, Jayanta Mandi, Ali \.Irfan
Mahmuto\u{g}ullar{\i}, Maxime Mulamba, Allegra De Filippo, Tias Guns, Michele
Lombardi
- Abstract要約: 決定中心学習(DFL)は、タスク損失を直接最小化し、MLモデルをトレーニングすることを目的として、最近提案されたパラダイムである。
本研究では,パラメータ上でのテキスト分布の予測とスコア関数勾配推定(SFGE)を用いて,予測モデルに対する決定中心の更新を計算することにより,これらの制約に対処する。
実験の結果,(1)目的関数と制約の両方で発生する予測に対処し,(2)2段階最適化問題に効果的に取り組むことができることがわかった。
- 参考スコア(独自算出の注目度): 17.494540497438955
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many real-world optimization problems contain unknown parameters that must be
predicted prior to solving. To train the predictive machine learning (ML)
models involved, the commonly adopted approach focuses on maximizing predictive
accuracy. However, this approach does not always lead to the minimization of
the downstream task loss. Decision-focused learning (DFL) is a recently
proposed paradigm whose goal is to train the ML model by directly minimizing
the task loss. However, state-of-the-art DFL methods are limited by the
assumptions they make about the structure of the optimization problem (e.g.,
that the problem is linear) and by the fact that can only predict parameters
that appear in the objective function. In this work, we address these
limitations by instead predicting \textit{distributions} over parameters and
adopting score function gradient estimation (SFGE) to compute decision-focused
updates to the predictive model, thereby widening the applicability of DFL. Our
experiments show that by using SFGE we can: (1) deal with predictions that
occur both in the objective function and in the constraints; and (2)
effectively tackle two-stage stochastic optimization problems.
- Abstract(参考訳): 多くの実世界の最適化問題は、解決前に予測しなければならない未知のパラメータを含んでいる。
関連する予測機械学習(ML)モデルをトレーニングするために、一般的に採用されているアプローチは、予測精度の最大化に焦点を当てている。
しかし、このアプローチが必ずしも下流のタスク損失を最小化するわけではない。
決定中心学習(DFL)は、タスク損失を直接最小化し、MLモデルをトレーニングすることを目的として、最近提案されたパラダイムである。
しかし、最先端のdfl法は最適化問題(例えば、問題は線形である)の構造に関する仮定と、目的関数に現れるパラメータしか予測できないという事実によって制限される。
本研究では,パラメータ上でのtextit{distributions} の予測とスコア関数勾配推定(SFGE)の適用により,予測モデルに対する決定中心の更新を計算し,DFLの適用性を拡大することで,これらの制約に対処する。
本実験は,sfgeを用いて,(1)目的関数と制約条件の両方において発生する予測を扱うこと,(2)2段階確率最適化問題に効果的に取り組むこと,の2つを示す。
関連論文リスト
- Learning Constrained Optimization with Deep Augmented Lagrangian Methods [60.94111369773497]
機械学習(ML)モデルは、制約付き最適化ソルバをエミュレートするために訓練される。
本稿では,MLモデルを用いて2つの解推定を直接予測する手法を提案する。
これにより、双対目的が損失関数であるエンドツーエンドのトレーニングスキームと、双対上昇法をエミュレートした原始的実現可能性への解推定を可能にする。
論文 参考訳(メタデータ) (2024-03-06T04:43:22Z) - End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - Decision-focused predictions via pessimistic bilevel optimization: a
computational study [0.4213495442786701]
我々は、強調に焦点をあてた予測を生成することにより、最適化の不確実性に対処する。
後悔を測るために構築された予測モデルを構築します。
トラクタビリティを実現する様々な計算手法を示す。
論文 参考訳(メタデータ) (2023-12-29T15:05:00Z) - On the Robustness of Decision-Focused Learning [0.0]
決定焦点学習(Decision-Focused Learning, DFL)は、機械学習(ML)モデルを訓練し、不完全な最適化問題の欠落パラメータを予測するための新興学習パラダイムである。
DFLは、予測と最適化タスクを統合することで、エンドツーエンドシステムでMLモデルをトレーニングし、トレーニングとテストの目的の整合性を向上させる。
論文 参考訳(メタデータ) (2023-11-28T04:34:04Z) - DF2: Distribution-Free Decision-Focused Learning [53.2476224456902]
決定中心学習(DFL)は近年,予測最適化問題に対する強力なアプローチとして出現している。
既存のエンドツーエンドDFL法は、モデル誤差、サンプル平均近似誤差、予測対象の分布に基づくパラメータ化の3つの重大なボトルネックによって妨げられている。
DF2は,これら3つのボトルネックに明示的に対処するために設計された,初となるテキストフリーな意思決定型学習手法である。
論文 参考訳(メタデータ) (2023-08-11T00:44:46Z) - Leaving the Nest: Going Beyond Local Loss Functions for
Predict-Then-Optimize [57.22851616806617]
本手法は,文献から得られた4つの領域において,最先端の成果が得られることを示す。
提案手法は, 局所性仮定が破られた場合, 既存手法よりも200%近く性能が向上する。
論文 参考訳(メタデータ) (2023-05-26T11:17:45Z) - Scalable Bayesian Meta-Learning through Generalized Implicit Gradients [64.21628447579772]
Inlicit Bayesian Meta-learning (iBaML) 法は、学習可能な事前のスコープを広げるだけでなく、関連する不確実性も定量化する。
解析誤差境界は、明示的よりも一般化された暗黙的勾配の精度と効率を示すために確立される。
論文 参考訳(メタデータ) (2023-03-31T02:10:30Z) - The Perils of Learning Before Optimizing [16.97597806975415]
本稿では,最適化タスクを通じて予測モデルを識別することで,エンドツーエンドで予測モデルを学習する方法を示す。
2段階のアプローチとエンドツーエンドのアプローチのパフォーマンスギャップは、最適化における相関の概念の強調と密接に関係していることが示される。
論文 参考訳(メタデータ) (2021-06-18T20:43:47Z) - Learning MDPs from Features: Predict-Then-Optimize for Sequential
Decision Problems by Reinforcement Learning [52.74071439183113]
我々は、強化学習を通して解決された逐次決定問題(MDP)の文脈における予測列最適化フレームワークについて検討した。
2つの重要な計算課題は、意思決定中心の学習をMDPに適用することである。
論文 参考訳(メタデータ) (2021-06-06T23:53:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。