論文の概要: Autocorrelated Optimize-via-Estimate: Predict-then-Optimize versus Finite-sample Optimal
- arxiv url: http://arxiv.org/abs/2602.01877v1
- Date: Mon, 02 Feb 2026 09:49:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.053747
- Title: Autocorrelated Optimize-via-Estimate: Predict-then-Optimize versus Finite-sample Optimal
- Title(参考訳): 自己相関的最適解法:予測-then-Optimize vs Finite-sample Optimal
- Authors: Zichun Wang, Gar Goei Loke, Ruiting Zuo,
- Abstract要約: 有限サンプル体制におけるアウト・オブ・サンプル性能を直接最適化するモデルは、従来の見積もりを最適化するアプローチに代わる有望な選択肢として現れてきた。
自動相関不確実性(特にベクトル自己回帰移動平均VARMA(p,q)プロセス)の文脈での性能を比較する。
- 参考スコア(独自算出の注目度): 2.0228793142608588
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Models that directly optimize for out-of-sample performance in the finite-sample regime have emerged as a promising alternative to traditional estimate-then-optimize approaches in data-driven optimization. In this work, we compare their performance in the context of autocorrelated uncertainties, specifically, under a Vector Autoregressive Moving Average VARMA(p,q) process. We propose an autocorrelated Optimize-via-Estimate (A-OVE) model that obtains an out-of-sample optimal solution as a function of sufficient statistics, and propose a recursive form for computing its sufficient statistics. We evaluate these models on a portfolio optimization problem with trading costs. A-OVE achieves low regret relative to a perfect information oracle, outperforming predict-then-optimize machine learning benchmarks. Notably, machine learning models with higher accuracy can have poorer decision quality, echoing the growing literature in data-driven optimization. Performance is retained under small mis-specification.
- Abstract(参考訳): 有限サンプル体制におけるアウト・オブ・サンプル性能を直接最適化するモデルは、データ駆動最適化における従来の見積もりを最適化するアプローチに代わる有望な選択肢として現れてきた。
本研究では,自動相関不確実性(特にベクトル自己回帰移動平均VARMA(p,q)プロセス)の文脈におけるそれらの性能を比較する。
本稿では, 十分な統計量の関数として, サンプル外最適解を求める自己相関オプティマイズ・アビエーション(A-OVE)モデルを提案する。
我々はこれらのモデルを取引コストを伴うポートフォリオ最適化問題で評価する。
A-OVEは、完璧な情報オラクルに対する後悔度が低く、予測に最適化された機械学習ベンチマークよりも優れています。
特に、精度の高い機械学習モデルは、データ駆動最適化における文献の増大を反映して、意思決定品質が低下する可能性がある。
パフォーマンスは小さなミス特定の下で維持される。
関連論文リスト
- Self-Steering Optimization: Autonomous Preference Optimization for Large Language Models [79.84205827056907]
本稿では,高品質な嗜好データを自律的に生成するアルゴリズムであるセルフステアリング最適化(SSO$)を提案する。
$SSO$は、ポリシーモデル自体からデータジェネレータを構築するために、特別な最適化目標を採用しています。
評価の結果,$SSO$は人選好アライメントと報酬最適化のベースラインを一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2024-10-22T16:04:03Z) - End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - Functional Graphical Models: Structure Enables Offline Data-Driven Optimization [111.28605744661638]
構造がサンプル効率のよいデータ駆動最適化を実現する方法を示す。
また、FGM構造自体を推定するデータ駆動最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-08T22:33:14Z) - Optimizer's Information Criterion: Dissecting and Correcting Bias in Data-Driven Optimization [16.57676001669012]
データ駆動最適化では、得られた決定のサンプル性能は通常、真の性能に対して楽観的なバイアスを生じさせる。
クロスバリデーションのような、このバイアスを修正するための一般的なテクニックは、追加の最適化問題を繰り返し解決する必要があるため、コストがかかる。
我々は一階偏差を直接近似する一般バイアス補正手法を開発し、追加の最適化問題を解く必要はない。
論文 参考訳(メタデータ) (2023-06-16T07:07:58Z) - Estimate-Then-Optimize versus Integrated-Estimation-Optimization versus Sample Average Approximation: A Stochastic Dominance Perspective [21.945745750737952]
モデルクラスが十分に特定され、十分なデータが存在する場合に、逆の振る舞いが現れることを示す。
また, 標準サンプル平均近似 (SAA) が, 後悔の点において, モデルクラスが適切に特定された場合に, 最悪の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2023-04-13T21:54:53Z) - Fast Rates for Contextual Linear Optimization [52.39202699484225]
提案手法は, 下流決定性能を直接最適化する手法よりもはるかに高速な, 後悔の収束率を実現する。
予測モデルは、既存のツールを使ったトレーニングが簡単かつ高速で、解釈が簡単で、私たちが示しているように、非常にうまく機能する決定につながる。
論文 参考訳(メタデータ) (2020-11-05T18:43:59Z) - Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems [55.94450542785096]
未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:11:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。