論文の概要: Decision Trees for Decision-Making under the Predict-then-Optimize
Framework
- arxiv url: http://arxiv.org/abs/2003.00360v2
- Date: Thu, 18 Jun 2020 01:06:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 20:34:48.043873
- Title: Decision Trees for Decision-Making under the Predict-then-Optimize
Framework
- Title(参考訳): 予測理論に基づく決定処理のための決定木
- Authors: Adam N. Elmachtoub, Jason Cheuk Nam Liang, Ryan McNellis
- Abstract要約: 本稿では,予測最適化フレームワークに基づく意思決定問題に対する決定木の利用について考察する。
このフレームワークの自然損失関数は、予測された入力パラメータによって誘導される決定の最適度を測定することである。
本研究では,SPOT(SPO Trees)と呼ばれる抽出可能な手法を提案する。
- 参考スコア(独自算出の注目度): 7.842152902652215
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the use of decision trees for decision-making problems under the
predict-then-optimize framework. That is, we would like to first use a decision
tree to predict unknown input parameters of an optimization problem, and then
make decisions by solving the optimization problem using the predicted
parameters. A natural loss function in this framework is to measure the
suboptimality of the decisions induced by the predicted input parameters, as
opposed to measuring loss using input parameter prediction error. This natural
loss function is known in the literature as the Smart Predict-then-Optimize
(SPO) loss, and we propose a tractable methodology called SPO Trees (SPOTs) for
training decision trees under this loss. SPOTs benefit from the
interpretability of decision trees, providing an interpretable segmentation of
contextual features into groups with distinct optimal solutions to the
optimization problem of interest. We conduct several numerical experiments on
synthetic and real data including the prediction of travel times for shortest
path problems and predicting click probabilities for news article
recommendation. We demonstrate on these datasets that SPOTs simultaneously
provide higher quality decisions and significantly lower model complexity than
other machine learning approaches (e.g., CART) trained to minimize prediction
error.
- Abstract(参考訳): 我々は,予測最適化枠組みの下で意思決定問題に対する決定木の利用を考える。
すなわち、まず決定木を用いて最適化問題の未知入力パラメータを予測し、次に予測パラメータを用いて最適化問題を解いて決定する。
このフレームワークの自然損失関数は、入力パラメータ予測誤差を用いて損失を測定するのに対して、予測された入力パラメータによって誘導される決定の最適度を測定することである。
この自然損失関数は、文献ではスマート予測最適化(SPO)損失として知られており、この損失の下で決定木を訓練するためのSPOT(SPO Trees)と呼ばれる抽出可能な手法を提案する。
SPOTは決定木の解釈可能性の恩恵を受け、関心の最適化問題に対する明確な最適解を持つ群への文脈的特徴の解釈可能なセグメンテーションを提供する。
最短経路問題に対する旅行時間の予測,ニュース記事推薦のためのクリック確率の予測など,合成データと実データに関する数値実験を行った。
これらのデータセット上で、SPOTは、予測エラーを最小限に抑えるために訓練された他の機械学習アプローチ(例えばCART)よりも、高い品質決定とモデル複雑さを同時に提供することを実証する。
関連論文リスト
- End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - Decision-focused predictions via pessimistic bilevel optimization: a
computational study [0.4213495442786701]
我々は、強調に焦点をあてた予測を生成することにより、最適化の不確実性に対処する。
後悔を測るために構築された予測モデルを構築します。
トラクタビリティを実現する様々な計算手法を示す。
論文 参考訳(メタデータ) (2023-12-29T15:05:00Z) - Predict-Then-Optimize by Proxy: Learning Joint Models of Prediction and
Optimization [59.386153202037086]
Predict-Then-フレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
このアプローチは非効率であり、最適化ステップを通じてバックプロパゲーションのための手作りの、問題固有のルールを必要とする。
本稿では,予測モデルを用いて観測可能な特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T01:32:06Z) - Regret Bounds and Experimental Design for Estimate-then-Optimize [9.340611077939828]
実用的なアプリケーションでは、データは見積もりと最適化の2つのステップで決定される。
見積もりステップのエラーは、見積もりを最適化して、サブ最適決定に導くことができる。
我々は、滑らかで制約のない最適化問題に対するこの後悔に縛られた小説を提供する。
論文 参考訳(メタデータ) (2022-10-27T16:13:48Z) - Efficient Learning of Decision-Making Models: A Penalty Block Coordinate
Descent Algorithm for Data-Driven Inverse Optimization [12.610576072466895]
我々は、意思決定プロセスを明らかにするために、事前の意思決定データを使用する逆問題を考える。
この統計的学習問題は、データ駆動逆最適化と呼ばれる。
そこで本稿では,大規模問題を解くために,効率的なブロック座標降下に基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-27T12:52:56Z) - Generalizing Bayesian Optimization with Decision-theoretic Entropies [102.82152945324381]
統計的決定論の研究からシャノンエントロピーの一般化を考える。
まず,このエントロピーの特殊なケースがBO手順でよく用いられる獲得関数に繋がることを示す。
次に、損失に対する選択肢の選択が、どのようにして柔軟な獲得関数の族をもたらすかを示す。
論文 参考訳(メタデータ) (2022-10-04T04:43:58Z) - Robust Optimal Classification Trees Against Adversarial Examples [5.254093731341154]
本稿では,ユーザが特定した攻撃モデルに対して最適に堅牢な決定木を訓練する手法の集合を提案する。
逆学習において生じるmin-max最適化問題は、単一最小化定式化を用いて解くことができることを示す。
また,両部マッチングを用いた任意のモデルに対して,上界の対角精度を決定する手法を提案する。
論文 参考訳(メタデータ) (2021-09-08T18:10:49Z) - Learning MDPs from Features: Predict-Then-Optimize for Sequential
Decision Problems by Reinforcement Learning [52.74071439183113]
我々は、強化学習を通して解決された逐次決定問題(MDP)の文脈における予測列最適化フレームワークについて検討した。
2つの重要な計算課題は、意思決定中心の学習をMDPに適用することである。
論文 参考訳(メタデータ) (2021-06-06T23:53:31Z) - Stochastic Optimization Forests [60.523606291705214]
標準的なランダムな森林アルゴリズムのように予測精度を向上させるために分割するのではなく、分割を選択した木を栽培し、下流の意思決定品質を直接最適化することで、森林決定政策の訓練方法を示す。
概略分割基準は、各候補分割に対して正確に最適化された森林アルゴリズムに近い性能を保ちながら、100倍のランニング時間を短縮できることを示す。
論文 参考訳(メタデータ) (2020-08-17T16:56:06Z) - Generalized and Scalable Optimal Sparse Decision Trees [56.35541305670828]
様々な目的に対して最適な決定木を生成する手法を提案する。
また,連続変数が存在する場合に最適な結果が得られるスケーラブルなアルゴリズムも導入する。
論文 参考訳(メタデータ) (2020-06-15T19:00:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。