論文の概要: Learning and Decision-Making with Data: Optimal Formulations and Phase
Transitions
- arxiv url: http://arxiv.org/abs/2109.06911v1
- Date: Tue, 14 Sep 2021 18:20:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-17 05:18:18.941242
- Title: Learning and Decision-Making with Data: Optimal Formulations and Phase
Transitions
- Title(参考訳): データによる学習と意思決定:最適な定式化と相転移
- Authors: M. Amine Bennouna and Bart P.G. Van Parys
- Abstract要約: 歴史的データのみを利用できる場合に最適学習と意思決定の定式化を設計する問題を考察する。
我々は3つの異なるアウト・オブ・サンプル・パフォーマンス・レジームの存在を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the problem of designing optimal learning and decision-making
formulations when only historical data is available. Prior work typically
commits to a particular class of data-driven formulation and subsequently tries
to establish out-of-sample performance guarantees. We take here the opposite
approach. We define first a sensible yard stick with which to measure the
quality of any data-driven formulation and subsequently seek to find an optimal
such formulation. Informally, any data-driven formulation can be seen to
balance a measure of proximity of the estimated cost to the actual cost while
guaranteeing a level of out-of-sample performance. Given an acceptable level of
out-of-sample performance, we construct explicitly a data-driven formulation
that is uniformly closer to the true cost than any other formulation enjoying
the same out-of-sample performance. We show the existence of three distinct
out-of-sample performance regimes (a superexponential regime, an exponential
regime and a subexponential regime) between which the nature of the optimal
data-driven formulation experiences a phase transition. The optimal data-driven
formulations can be interpreted as a classically robust formulation in the
superexponential regime, an entropic distributionally robust formulation in the
exponential regime and finally a variance penalized formulation in the
subexponential regime. This final observation unveils a surprising connection
between these three, at first glance seemingly unrelated, data-driven
formulations which until now remained hidden.
- Abstract(参考訳): 歴史的データのみを利用できる場合に最適学習と意思決定の定式化を設計する問題を考察する。
以前の作業は通常、データ駆動の特定のクラスにコミットし、その後、サンプル外のパフォーマンス保証を確立しようとします。
ここでは反対のアプローチを取ります。
まず、任意のデータ駆動定式化の品質を測定するための賢明なヤードスティックを定義し、その上で最適な定式化を探します。
非公式に、任意のデータ駆動型定式化は、推定コストと実際のコストの近接の尺度をバランスさせながら、サンプル性能のレベルを保証できる。
サンプル外性能の許容レベルを考慮すれば、同じサンプル外性能を享受する他のどの定式化よりも、真のコストに均一に近いデータ駆動型定式化を明示的に構築する。
最適データ駆動型定式化の性質が相転移を経験する3つの異なるアウト・オブ・サンプル・パフォーマンス・レジーム(超指数的レジーム、指数的レジーム、サブ指数的レジーム)の存在を示す。
最適なデータ駆動定式化は、超指数レジームにおける古典的ロバストな定式化、指数レジームにおけるエントロピーな分布的ロバストな定式化、最終的に準指数レジームにおける分散ペナライズド定式化と解釈することができる。
この最後の観測では、これらの3つの間に驚くべき関係が明らかとなり、一見無関係に見えるデータ駆動の定式化が現在まで秘められている。
関連論文リスト
- Forecasting Outside the Box: Application-Driven Optimal Pointwise Forecasts for Stochastic Optimization [0.0]
本稿では,未知の状況の最適近似を導出する統合学習と最適化手法を提案する。
文献の在庫問題と実データを用いた自転車共有問題から得られた数値結果から,提案手法が有効であることを示す。
論文 参考訳(メタデータ) (2024-11-05T21:54:50Z) - Experiment Planning with Function Approximation [49.50254688629728]
本研究では,文脈的帯域幅問題における関数近似を用いた実験計画の問題点について検討する。
本稿では,関数近似に適合する2つの実験計画戦略を提案する。
そこで, 均一サンプリング器は, 動作数が少ない設定において, 競合最適性を達成できることを示す。
論文 参考訳(メタデータ) (2024-01-10T14:40:23Z) - DF2: Distribution-Free Decision-Focused Learning [53.2476224456902]
決定中心学習(DFL)は近年,予測最適化問題に対する強力なアプローチとして出現している。
既存のエンドツーエンドDFL法は、モデル誤差、サンプル平均近似誤差、予測対象の分布に基づくパラメータ化の3つの重大なボトルネックによって妨げられている。
DF2は,これら3つのボトルネックに明示的に対処するために設計された,初となるテキストフリーな意思決定型学習手法である。
論文 参考訳(メタデータ) (2023-08-11T00:44:46Z) - Learning Unnormalized Statistical Models via Compositional Optimization [73.30514599338407]
実データと人工雑音のロジスティックな損失として目的を定式化することにより, ノイズコントラスト推定(NCE)を提案する。
本稿では,非正規化モデルの負の対数類似度を最適化するための直接的アプローチについて検討する。
論文 参考訳(メタデータ) (2023-06-13T01:18:16Z) - Data-Driven Sample Average Approximation with Covariate Information [0.0]
我々は、コパラメトリックの同時観測とともに、最適化モデル内の不確実なパラメータの観測を行う際に、データ駆動意思決定のための最適化について検討する。
本稿では,機械学習予測モデルをプログラムサンプル平均近似(SAA)に組み込んだ3つのデータ駆動フレームワークについて検討する。
論文 参考訳(メタデータ) (2022-07-27T14:45:04Z) - Holistic Robust Data-Driven Decisions [0.0]
実際にはオーバーフィッティングはひとつの原因ではなく、複数の要因を同時に引き起こすのが一般的である。
ここでは, (i) 有限サンプルデータを用いた結果の統計的誤差, (ii) データポイントを有限精度で測定した場合に発生するデータノイズ, (iii) データのごく一部が完全に破損する可能性のあるデータ不特定性という3つの過度な結果について考察する。
既存のデータ駆動型定式化は、これらの3つのソースのうちの1つに対して、独立して堅牢であるかもしれないが、すべてのオーバーフィットソースに対して、全体的な保護を提供していない、と我々は主張する。
論文 参考訳(メタデータ) (2022-07-19T21:28:51Z) - Extension of Dynamic Mode Decomposition for dynamic systems with
incomplete information based on t-model of optimal prediction [69.81996031777717]
動的モード分解は、動的データを研究するための非常に効率的な手法であることが証明された。
このアプローチの適用は、利用可能なデータが不完全である場合に問題となる。
本稿では,森-Zwanzig分解の1次近似を考察し,対応する最適化問題を記述し,勾配に基づく最適化法を用いて解く。
論文 参考訳(メタデータ) (2022-02-23T11:23:59Z) - Learning Optimal Prescriptive Trees from Observational Data [7.215903549622416]
混合整数最適化(MIO)技術を用いて最適規範木を学習する手法を提案する。
既存の文献とは対照的に、我々の手法はデータをランダム化する必要がなく、2)学習木に厳密な仮定を課さず、3)ドメイン固有の制約をモデル化する能力を持っている。
論文 参考訳(メタデータ) (2021-08-31T05:38:36Z) - Adaptive Sequential Design for a Single Time-Series [2.578242050187029]
期待される結果を最適化するために、設計の制御されたコンポーネントの最適かつ未知の選択を学習する。
我々は、時間とともに収集されたデータに基づいて、将来のタイムポイント実験にランダム化機構を適用する。
論文 参考訳(メタデータ) (2021-01-29T22:51:45Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。