論文の概要: Stochastic Optimization Forests
- arxiv url: http://arxiv.org/abs/2008.07473v6
- Date: Wed, 16 Mar 2022 06:26:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 03:24:09.851132
- Title: Stochastic Optimization Forests
- Title(参考訳): 確率最適化林
- Authors: Nathan Kallus and Xiaojie Mao
- Abstract要約: 標準的なランダムな森林アルゴリズムのように予測精度を向上させるために分割するのではなく、分割を選択した木を栽培し、下流の意思決定品質を直接最適化することで、森林決定政策の訓練方法を示す。
概略分割基準は、各候補分割に対して正確に最適化された森林アルゴリズムに近い性能を保ちながら、100倍のランニング時間を短縮できることを示す。
- 参考スコア(独自算出の注目度): 60.523606291705214
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study contextual stochastic optimization problems, where we leverage rich
auxiliary observations (e.g., product characteristics) to improve decision
making with uncertain variables (e.g., demand). We show how to train forest
decision policies for this problem by growing trees that choose splits to
directly optimize the downstream decision quality, rather than splitting to
improve prediction accuracy as in the standard random forest algorithm. We
realize this seemingly computationally intractable problem by developing
approximate splitting criteria that utilize optimization perturbation analysis
to eschew burdensome re-optimization for every candidate split, so that our
method scales to large-scale problems. We prove that our splitting criteria
consistently approximate the true risk and that our method achieves asymptotic
optimality. We extensively validate our method empirically, demonstrating the
value of optimization-aware construction of forests and the success of our
efficient approximations. We show that our approximate splitting criteria can
reduce running time hundredfold, while achieving performance close to forest
algorithms that exactly re-optimize for every candidate split.
- Abstract(参考訳): 文脈確率最適化問題について検討し、豊富な補助観測(製品特性など)を活用し、不確実な変数(需要など)による意思決定を改善する。
本研究は,木を育てて下流の意思決定品質を直接最適化し,標準ランダムフォレストアルゴリズムのように予測精度を向上させるのではなく,木を分割することで,この問題に対する森林決定政策を訓練する方法を示す。
提案手法は,最適化摂動解析を利用した近似分割基準を考案し,各候補分割に対する重み付き再最適化を実現することにより,大規模問題へのスケールアップを実現している。
分割基準が真リスクを常に近似し,漸近的最適性を達成することを証明した。
本手法を実証的に検証し,森林の最適化・対応化の価値と効率的な近似手法の成功を実証した。
近似的な分割基準は実行時間を100倍に短縮できると同時に,候補分割毎に正確に再最適化するフォレストアルゴリズムに近い性能を実現する。
関連論文リスト
- Approximation Algorithms for Combinatorial Optimization with Predictions [3.7235228254732524]
従来のアルゴリズムの近似保証よりも高い精度で予測を行う。
我々のアルゴリズムは、完璧な予測が得られたときに最適解を生成する。
この種の問題全体に対して最適なアプローチを示すが、個々の問題の特定の構造的特性を利用して改善された境界を求める可能性はある。
論文 参考訳(メタデータ) (2024-11-25T17:31:34Z) - Parameter-Free Algorithms for Performative Regret Minimization under
Decision-Dependent Distributions [15.396561118589577]
パフォーマンスリスク最小化は、決定依存分布の下での最適化の定式化である。
我々のアルゴリズムは、既存のリプシッツ定数分布パラメータに基づく手法を大幅に改善する。
提案手法は,既存手法と他のブラックボックス楽観的最適化手法に比較して,アルゴリズムの数値的優位性を示す実験結果を提供する。
論文 参考訳(メタデータ) (2024-02-23T08:36:28Z) - Efficient Non-Parametric Optimizer Search for Diverse Tasks [93.64739408827604]
興味のあるタスクを直接検索できる,スケーラブルで汎用的なフレームワークを初めて提示する。
基礎となる数学表現の自然木構造に着想を得て、空間を超木に再配置する。
我々は,モンテカルロ法を木探索に適用し,レジェクションサンプリングと等価形状検出を備える。
論文 参考訳(メタデータ) (2022-09-27T17:51:31Z) - Robust Optimal Classification Trees Against Adversarial Examples [5.254093731341154]
本稿では,ユーザが特定した攻撃モデルに対して最適に堅牢な決定木を訓練する手法の集合を提案する。
逆学習において生じるmin-max最適化問題は、単一最小化定式化を用いて解くことができることを示す。
また,両部マッチングを用いた任意のモデルに対して,上界の対角精度を決定する手法を提案する。
論文 参考訳(メタデータ) (2021-09-08T18:10:49Z) - Unified Convergence Analysis for Adaptive Optimization with Moving Average Estimator [75.05106948314956]
1次モーメントに対する大きな運動量パラメータの増大は適応的スケーリングに十分であることを示す。
また,段階的に減少するステップサイズに応じて,段階的に運動量を増加させるための洞察を与える。
論文 参考訳(メタデータ) (2021-04-30T08:50:24Z) - On the Optimality of Batch Policy Optimization Algorithms [106.89498352537682]
バッチポリシー最適化は、環境と対話する前に既存のデータをポリシー構築に活用することを検討する。
信頼調整インデックスアルゴリズムは楽観的,悲観的,中立的いずれであってもミニマックス最適であることを示す。
最適値予測の本来の難易度を考慮した新しい重み付き最小値基準を提案する。
論文 参考訳(メタデータ) (2021-04-06T05:23:20Z) - Robust, Accurate Stochastic Optimization for Variational Inference [68.83746081733464]
また, 共通最適化手法は, 問題が適度に大きい場合, 変分近似の精度が低下することを示した。
これらの結果から,基礎となるアルゴリズムをマルコフ連鎖の生成とみなして,より堅牢で正確な最適化フレームワークを開発する。
論文 参考訳(メタデータ) (2020-09-01T19:12:11Z) - Efficient Nonmyopic Bayesian Optimization via One-Shot Multi-Step Trees [28.46586066038317]
一般的なマルチステップ・ルック・ベイズ最適化の最初の効率的な実装を提供する。
これらの問題をネストした方法で解決する代わりに、全木のすべての決定変数を同等に最適化します。
提案手法は,様々なベンチマークにおいて,既存の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-06-29T02:17:18Z) - Generalized and Scalable Optimal Sparse Decision Trees [56.35541305670828]
様々な目的に対して最適な決定木を生成する手法を提案する。
また,連続変数が存在する場合に最適な結果が得られるスケーラブルなアルゴリズムも導入する。
論文 参考訳(メタデータ) (2020-06-15T19:00:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。