論文の概要: Optimize-via-Predict: Realizing out-of-sample optimality in data-driven
optimization
- arxiv url: http://arxiv.org/abs/2309.11147v1
- Date: Wed, 20 Sep 2023 08:48:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-21 16:55:35.594954
- Title: Optimize-via-Predict: Realizing out-of-sample optimality in data-driven
optimization
- Title(参考訳): Optimize-via-Predict: データ駆動最適化におけるサンプル外最適化の実現
- Authors: Gar Goei Loke, Taozeng Zhu, Ruiting Zuo
- Abstract要約: 本稿では,データ駆動最適化の定式化について検討する。
我々は、規範的なソリューションを、そのようなデータセットを意思決定にマッピングする意思決定者ルールとして定義する。
本稿では,このようなサンプル外最適解に対して,サンプリングアルゴリズムと2分割探索アルゴリズムを組み合わせることで効率よく解ける最適化問題を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We examine a stochastic formulation for data-driven optimization wherein the
decision-maker is not privy to the true distribution, but has knowledge that it
lies in some hypothesis set and possesses a historical data set, from which
information about it can be gleaned. We define a prescriptive solution as a
decision rule mapping such a data set to decisions. As there does not exist
prescriptive solutions that are generalizable over the entire hypothesis set,
we define out-of-sample optimality as a local average over a neighbourhood of
hypotheses, and averaged over the sampling distribution. We prove sufficient
conditions for local out-of-sample optimality, which reduces to functions of
the sufficient statistic of the hypothesis family. We present an optimization
problem that would solve for such an out-of-sample optimal solution, and does
so efficiently by a combination of sampling and bisection search algorithms.
Finally, we illustrate our model on the newsvendor model, and find strong
performance when compared against alternatives in the literature. There are
potential implications of our research on end-to-end learning and Bayesian
optimization.
- Abstract(参考訳): 意思決定者が真の分布に従わないが、ある仮説集合に存在し、その情報が得られる歴史的なデータセットを持っているという知識を持つデータ駆動最適化の確率的定式化について検討する。
このようなデータセットを決定にマッピングする決定ルールとして,規範的ソリューションを定義する。
仮説集合全体に対して一般化可能な規範解が存在しないので、仮定の近傍における局所平均として外サンプル最適性を定義し、サンプリング分布上で平均化する。
我々は、局所的なサンプル外最適性の十分条件を証明し、仮説ファミリーの十分統計量の関数に還元する。
本稿では,このようなサンプル外最適解に対して,サンプリングアルゴリズムと2分割探索アルゴリズムを組み合わせることで効率よく解ける最適化問題を提案する。
最後に,私たちのモデルをニュースベンダモデルで説明し,文献の代替案と比較すると高い性能を示す。
エンドツーエンドの学習とベイズ最適化に関する私たちの研究には、潜在的な意味があります。
関連論文リスト
- Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Distributed Fractional Bayesian Learning for Adaptive Optimization [7.16937736207894]
本稿では,各エージェントが共通パラメータを持つローカルコスト関数にのみアクセス可能な分散適応最適化問題について考察する。
分散最適化問題におけるパラメータの不確実性に対処し、同時に最適解を見つけるための貴重な洞察を提供することを目的としている。
論文 参考訳(メタデータ) (2024-04-17T13:09:33Z) - Towards Efficient Exact Optimization of Language Model Alignment [93.39181634597877]
嗜好データから直接ポリシーを最適化するために、直接選好最適化(DPO)が提案された。
問題の最適解に基づいて導出されたDPOが,現実の最適解の妥協平均探索近似に繋がることを示す。
本稿では、アライメント目的の効率的な精度最適化(EXO)を提案する。
論文 参考訳(メタデータ) (2024-02-01T18:51:54Z) - Bayesian Optimization with Conformal Prediction Sets [44.565812181545645]
コンフォーマル予測(Conformal prediction)は、不確実な定量化手法であり、不特定モデルに対してもカバレッジを保証する。
本稿では,モデルの妥当性が保証された検索空間の領域にクエリを誘導する共形ベイズ最適化を提案する。
多くの場合、クエリのカバレッジはサンプル効率を損なうことなく大幅に改善できる。
論文 参考訳(メタデータ) (2022-10-22T17:01:05Z) - Generalizing Bayesian Optimization with Decision-theoretic Entropies [102.82152945324381]
統計的決定論の研究からシャノンエントロピーの一般化を考える。
まず,このエントロピーの特殊なケースがBO手順でよく用いられる獲得関数に繋がることを示す。
次に、損失に対する選択肢の選択が、どのようにして柔軟な獲得関数の族をもたらすかを示す。
論文 参考訳(メタデータ) (2022-10-04T04:43:58Z) - Bayesian Joint Chance Constrained Optimization: Approximations and
Statistical Consistency [10.20554144865699]
近似した後続分布を用いて計算した最適値の統計的整合性の問題に焦点をあてる。
また、近似最適化問題の実現可能性も証明する。
また,M/M/c待ち行列モデルに対する最適スタッフリング問題に対するアプローチの有用性を示す。
論文 参考訳(メタデータ) (2021-06-23T07:11:39Z) - Local policy search with Bayesian optimization [73.0364959221845]
強化学習は、環境との相互作用によって最適な政策を見つけることを目的としている。
局所探索のための政策勾配は、しばしばランダムな摂動から得られる。
目的関数の確率モデルとその勾配を用いたアルゴリズムを開発する。
論文 参考訳(メタデータ) (2021-06-22T16:07:02Z) - Data-Driven Combinatorial Optimization with Incomplete Information: a
Distributionally Robust Optimization Approach [0.0]
我々は,コストベクトルが先行性を持たないが,有限データセットでしか観測できない線形最適化問題を解析する。
目標は、データセットを対象関数の期待値の推定値に変換する手順を見つけることである。
論文 参考訳(メタデータ) (2021-05-28T23:17:35Z) - Robust, Accurate Stochastic Optimization for Variational Inference [68.83746081733464]
また, 共通最適化手法は, 問題が適度に大きい場合, 変分近似の精度が低下することを示した。
これらの結果から,基礎となるアルゴリズムをマルコフ連鎖の生成とみなして,より堅牢で正確な最適化フレームワークを開発する。
論文 参考訳(メタデータ) (2020-09-01T19:12:11Z) - Stochastic Optimization Forests [60.523606291705214]
標準的なランダムな森林アルゴリズムのように予測精度を向上させるために分割するのではなく、分割を選択した木を栽培し、下流の意思決定品質を直接最適化することで、森林決定政策の訓練方法を示す。
概略分割基準は、各候補分割に対して正確に最適化された森林アルゴリズムに近い性能を保ちながら、100倍のランニング時間を短縮できることを示す。
論文 参考訳(メタデータ) (2020-08-17T16:56:06Z) - Variance Reduction for Better Sampling in Continuous Domains [5.675136204504504]
最適探索分布は, 先行分布よりも分布の中心付近でピークとなる可能性が示唆された。
本研究では, 人口規模に応じて, 探索分布を変形させるための明示的な値を提供する。
論文 参考訳(メタデータ) (2020-04-24T12:25:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。