論文の概要: Sufficient Decision Proxies for Decision-Focused Learning
- arxiv url: http://arxiv.org/abs/2505.03953v1
- Date: Tue, 06 May 2025 20:10:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 19:07:35.908049
- Title: Sufficient Decision Proxies for Decision-Focused Learning
- Title(参考訳): 決定に焦点を絞った学習のための十分決定プロキシ
- Authors: Noah Schutte, Grigorii Veviurko, Krzysztof Postek, Neil Yorke-Smith,
- Abstract要約: 決定に焦点を当てた学習は、予測精度ではなく、決定品質が最大化されるような予測モデルを学ぶことを目的としている。
本稿では,いずれの仮定を用いても正当性を示す問題特性を初めて検討する。
本稿では,連続変数および離散変数の問題に対する実験における提案手法の有効性と,目的関数および制約における不確実性について述べる。
- 参考スコア(独自算出の注目度): 2.7143637678944454
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: When solving optimization problems under uncertainty with contextual data, utilizing machine learning to predict the uncertain parameters is a popular and effective approach. Decision-focused learning (DFL) aims at learning a predictive model such that decision quality, instead of prediction accuracy, is maximized. Common practice here is to predict a single value for each uncertain parameter, implicitly assuming that there exists a (single-scenario) deterministic problem approximation (proxy) that is sufficient to obtain an optimal decision. Other work assumes the opposite, where the underlying distribution needs to be estimated. However, little is known about when either choice is valid. This paper investigates for the first time problem properties that justify using either assumption. Using this, we present effective decision proxies for DFL, with very limited compromise on the complexity of the learning task. We show the effectiveness of presented approaches in experiments on problems with continuous and discrete variables, as well as uncertainty in the objective function and in the constraints.
- Abstract(参考訳): 文脈データの不確実性の下で最適化問題を解く場合、不確実なパラメータを予測するために機械学習を利用するのが一般的で効果的なアプローチである。
決定中心学習(DFL)は、予測精度ではなく、決定品質が最大化されるような予測モデルを学ぶことを目的としている。
ここでの一般的な実践は、不確実なパラメータごとに単一の値を予測することであり、最適決定を得るのに十分である決定論的問題近似(プロキシ)が存在することを暗黙的に仮定する。
他の作業では、基礎となる分布を見積もる必要があるという逆を仮定する。
しかし、どちらの選択肢が有効であるかは分かっていない。
本稿では,いずれの仮定を用いても正当性を示す問題特性を初めて検討する。
これを用いて、学習課題の複雑さに非常に限定したDFLの効果的な意思決定プロキシを提案する。
本稿では,連続変数および離散変数の問題に対する実験における提案手法の有効性と,目的関数および制約における不確実性について述べる。
関連論文リスト
- Information-Theoretic Safe Bayesian Optimization [59.758009422067005]
そこでは、未知の(安全でない)制約に反するパラメータを評価することなく、未知の関数を最適化することを目的としている。
現在のほとんどのメソッドはドメインの離散化に依存しており、連続ケースに直接拡張することはできない。
本稿では,GP後部を直接利用して,最も情報に富む安全なパラメータを識別する情報理論的安全な探索基準を提案する。
論文 参考訳(メタデータ) (2024-02-23T14:31:10Z) - End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - Decision-focused predictions via pessimistic bilevel optimization: a computational study [0.7499722271664147]
最適化パラメータの不確かさは、重要かつ長年にわたる課題である。
予測モデルを構築して,それを用いた意思決定の文言的指標を測定します。
トラクタビリティを実現するために,様々な計算手法を示す。
論文 参考訳(メタデータ) (2023-12-29T15:05:00Z) - Learning Deterministic Surrogates for Robust Convex QCQPs [0.0]
本稿では,ロバストな意思決定損失に関する予測モデルをトレーニングするための二重暗黙層モデルを提案する。
第1の層は問題の決定論的バージョンを解き、第2の層は不確実性集合に対する最悪のケース実現を評価する。
これにより、テスト時に単純な決定論的問題を解くだけで、堅牢な決定につながるモデルのパラメータ化を学ぶことができます。
論文 参考訳(メタデータ) (2023-12-19T16:56:13Z) - Predict-Then-Optimize by Proxy: Learning Joint Models of Prediction and
Optimization [59.386153202037086]
Predict-Then-フレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
このアプローチは非効率であり、最適化ステップを通じてバックプロパゲーションのための手作りの、問題固有のルールを必要とする。
本稿では,予測モデルを用いて観測可能な特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T01:32:06Z) - Score Function Gradient Estimation to Widen the Applicability of Decision-Focused Learning [17.962860438133312]
決定中心学習(DFL)パラダイムは、例えば後悔など、タスク損失を直接最小化するためのトレーニングによって制限を克服する。
そこで我々は,このような仮定をせずに,任意のタスク損失に作用するスコア関数推定とスムースに組み合わせた代替手法を提案する。
実験の結果、一般的に多くのエポックを必要とするが、専門的な手法と同等であり、特にソリューションの品質、スケーラビリティ、あるいはその両方の観点から、制約の不確実性に悩む問題に対して、特にうまく機能していることが示されている。
論文 参考訳(メタデータ) (2023-07-11T12:32:13Z) - Leaving the Nest: Going Beyond Local Loss Functions for
Predict-Then-Optimize [57.22851616806617]
本手法は,文献から得られた4つの領域において,最先端の成果が得られることを示す。
提案手法は, 局所性仮定が破られた場合, 既存手法よりも200%近く性能が向上する。
論文 参考訳(メタデータ) (2023-05-26T11:17:45Z) - Learning MDPs from Features: Predict-Then-Optimize for Sequential
Decision Problems by Reinforcement Learning [52.74071439183113]
我々は、強化学習を通して解決された逐次決定問題(MDP)の文脈における予測列最適化フレームワークについて検討した。
2つの重要な計算課題は、意思決定中心の学習をMDPに適用することである。
論文 参考訳(メタデータ) (2021-06-06T23:53:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。