論文の概要: Decision Trees for Decision-Making under the Predict-then-Optimize
Framework
- arxiv url: http://arxiv.org/abs/2003.00360v2
- Date: Thu, 18 Jun 2020 01:06:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 20:34:48.043873
- Title: Decision Trees for Decision-Making under the Predict-then-Optimize
Framework
- Title(参考訳): 予測理論に基づく決定処理のための決定木
- Authors: Adam N. Elmachtoub, Jason Cheuk Nam Liang, Ryan McNellis
- Abstract要約: 本稿では,予測最適化フレームワークに基づく意思決定問題に対する決定木の利用について考察する。
このフレームワークの自然損失関数は、予測された入力パラメータによって誘導される決定の最適度を測定することである。
本研究では,SPOT(SPO Trees)と呼ばれる抽出可能な手法を提案する。
- 参考スコア(独自算出の注目度): 7.842152902652215
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the use of decision trees for decision-making problems under the
predict-then-optimize framework. That is, we would like to first use a decision
tree to predict unknown input parameters of an optimization problem, and then
make decisions by solving the optimization problem using the predicted
parameters. A natural loss function in this framework is to measure the
suboptimality of the decisions induced by the predicted input parameters, as
opposed to measuring loss using input parameter prediction error. This natural
loss function is known in the literature as the Smart Predict-then-Optimize
(SPO) loss, and we propose a tractable methodology called SPO Trees (SPOTs) for
training decision trees under this loss. SPOTs benefit from the
interpretability of decision trees, providing an interpretable segmentation of
contextual features into groups with distinct optimal solutions to the
optimization problem of interest. We conduct several numerical experiments on
synthetic and real data including the prediction of travel times for shortest
path problems and predicting click probabilities for news article
recommendation. We demonstrate on these datasets that SPOTs simultaneously
provide higher quality decisions and significantly lower model complexity than
other machine learning approaches (e.g., CART) trained to minimize prediction
error.
- Abstract(参考訳): 我々は,予測最適化枠組みの下で意思決定問題に対する決定木の利用を考える。
すなわち、まず決定木を用いて最適化問題の未知入力パラメータを予測し、次に予測パラメータを用いて最適化問題を解いて決定する。
このフレームワークの自然損失関数は、入力パラメータ予測誤差を用いて損失を測定するのに対して、予測された入力パラメータによって誘導される決定の最適度を測定することである。
この自然損失関数は、文献ではスマート予測最適化(SPO)損失として知られており、この損失の下で決定木を訓練するためのSPOT(SPO Trees)と呼ばれる抽出可能な手法を提案する。
SPOTは決定木の解釈可能性の恩恵を受け、関心の最適化問題に対する明確な最適解を持つ群への文脈的特徴の解釈可能なセグメンテーションを提供する。
最短経路問題に対する旅行時間の予測,ニュース記事推薦のためのクリック確率の予測など,合成データと実データに関する数値実験を行った。
これらのデータセット上で、SPOTは、予測エラーを最小限に抑えるために訓練された他の機械学習アプローチ(例えばCART)よりも、高い品質決定とモデル複雑さを同時に提供することを実証する。
関連論文リスト
- Smart Predict-then-Optimize Method with Dependent Data: Risk Bounds and Calibration of Autoregression [7.369846475695131]
本稿では,決定段階における最適化問題を直接対象とする自己回帰型SPO手法を提案する。
我々は, 絶対損失と最小二乗損失と比較して, SPO+サロゲートの有効性を示す実験を行った。
論文 参考訳(メタデータ) (2024-11-19T17:02:04Z) - Learning Solutions of Stochastic Optimization Problems with Bayesian Neural Networks [4.202961704179733]
多くの実世界の設定において、これらのパラメータのいくつかは未知または不確かである。
最近の研究は、利用可能なコンテキスト特徴を用いて未知のパラメータの値を予測することに焦点を当てている。
本稿では、不確実性ニューラルネットワーク(BNN)をモデル化し、この不確実性を数学的解法に伝達する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-06-05T09:11:46Z) - End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - Decision-focused predictions via pessimistic bilevel optimization: a computational study [0.7499722271664147]
最適化パラメータの不確かさは、重要かつ長年にわたる課題である。
予測モデルを構築して,それを用いた意思決定の文言的指標を測定します。
トラクタビリティを実現するために,様々な計算手法を示す。
論文 参考訳(メタデータ) (2023-12-29T15:05:00Z) - Predict-Then-Optimize by Proxy: Learning Joint Models of Prediction and
Optimization [59.386153202037086]
Predict-Then-フレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
このアプローチは非効率であり、最適化ステップを通じてバックプロパゲーションのための手作りの、問題固有のルールを必要とする。
本稿では,予測モデルを用いて観測可能な特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T01:32:06Z) - Regret Bounds and Experimental Design for Estimate-then-Optimize [9.340611077939828]
実用的なアプリケーションでは、データは見積もりと最適化の2つのステップで決定される。
見積もりステップのエラーは、見積もりを最適化して、サブ最適決定に導くことができる。
我々は、滑らかで制約のない最適化問題に対するこの後悔に縛られた小説を提供する。
論文 参考訳(メタデータ) (2022-10-27T16:13:48Z) - Generalizing Bayesian Optimization with Decision-theoretic Entropies [102.82152945324381]
統計的決定論の研究からシャノンエントロピーの一般化を考える。
まず,このエントロピーの特殊なケースがBO手順でよく用いられる獲得関数に繋がることを示す。
次に、損失に対する選択肢の選択が、どのようにして柔軟な獲得関数の族をもたらすかを示す。
論文 参考訳(メタデータ) (2022-10-04T04:43:58Z) - Robust Optimal Classification Trees Against Adversarial Examples [5.254093731341154]
本稿では,ユーザが特定した攻撃モデルに対して最適に堅牢な決定木を訓練する手法の集合を提案する。
逆学習において生じるmin-max最適化問題は、単一最小化定式化を用いて解くことができることを示す。
また,両部マッチングを用いた任意のモデルに対して,上界の対角精度を決定する手法を提案する。
論文 参考訳(メタデータ) (2021-09-08T18:10:49Z) - Learning MDPs from Features: Predict-Then-Optimize for Sequential
Decision Problems by Reinforcement Learning [52.74071439183113]
我々は、強化学習を通して解決された逐次決定問題(MDP)の文脈における予測列最適化フレームワークについて検討した。
2つの重要な計算課題は、意思決定中心の学習をMDPに適用することである。
論文 参考訳(メタデータ) (2021-06-06T23:53:31Z) - Stochastic Optimization Forests [60.523606291705214]
標準的なランダムな森林アルゴリズムのように予測精度を向上させるために分割するのではなく、分割を選択した木を栽培し、下流の意思決定品質を直接最適化することで、森林決定政策の訓練方法を示す。
概略分割基準は、各候補分割に対して正確に最適化された森林アルゴリズムに近い性能を保ちながら、100倍のランニング時間を短縮できることを示す。
論文 参考訳(メタデータ) (2020-08-17T16:56:06Z) - Generalized and Scalable Optimal Sparse Decision Trees [56.35541305670828]
様々な目的に対して最適な決定木を生成する手法を提案する。
また,連続変数が存在する場合に最適な結果が得られるスケーラブルなアルゴリズムも導入する。
論文 参考訳(メタデータ) (2020-06-15T19:00:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。