論文の概要: "Over-optimizing" for Normality: Budget-constrained Uncertainty Quantification for Contextual Decision-making
- arxiv url: http://arxiv.org/abs/2503.12747v3
- Date: Sat, 11 Oct 2025 15:09:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 20:23:38.82134
- Title: "Over-optimizing" for Normality: Budget-constrained Uncertainty Quantification for Contextual Decision-making
- Title(参考訳): 日常性のための「外部最適化」:文脈決定のための予算制約の不確実性定量化
- Authors: Yanyuan Wang, Xiaowei Zhang,
- Abstract要約: 重み付きサンプル平均近似(wSAA)を用いた文脈最適化の不確実性定量化について検討する。
我々は、wSAAの中央極限定理を確立し、最適条件予測コストに対するアルゴリズム正規性に基づく信頼区間を構築する。
我々は、予算制約付き推定器の収束率をわずかに低下させ、過度に最適化する'(命名規則よりも多くのイテレーションを実行する)が、この過ちを軽減し、正規性を保っていることを示す。
- 参考スコア(独自算出の注目度): 1.2997358113120427
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We study uncertainty quantification for contextual stochastic optimization, focusing on weighted sample average approximation (wSAA), which uses machine-learned relevance weights based on covariates. Although wSAA is widely used for contextual decisions, its uncertainty quantification remains limited. In addition, computational budgets tie sample size to optimization accuracy, creating a coupling that standard analyses often ignore. We establish central limit theorems for wSAA and construct asymptotic-normality-based confidence intervals for optimal conditional expected costs. We analyze the statistical--computational tradeoff under a computational budget, characterizing how to allocate resources between sample size and optimization iterations to balance statistical and optimization errors. These allocation rules depend on structural parameters of the objective; misspecifying them can break the asymptotic optimality of the wSAA estimator. We show that ``over-optimizing'' (running more iterations than the nominal rule) mitigates this misspecification and preserves asymptotic normality, at the expense of a slight slowdown in the convergence rate of the budget-constrained estimator. The common intuition that ``more data is better'' can fail under computational constraints: increasing the sample size may worsen statistical inference by forcing fewer algorithm iterations and larger optimization error. Our framework provides a principled way to quantify uncertainty for contextual decision-making under computational constraints. It offers practical guidance on allocating limited resources between data acquisition and optimization effort, clarifying when to prioritize additional optimization iterations over more data to ensure valid confidence intervals for conditional performance.
- Abstract(参考訳): 共変量に基づく機械学習関連度重みを用いた重み付きサンプル平均近似(wSAA)に着目し,文脈確率最適化のための不確実性定量化について検討した。
wSAAは文脈決定に広く用いられているが、その不確実性定量化は依然として限られている。
さらに、計算予算はサンプルサイズと精度の最適化を結び付け、標準分析でしばしば無視される結合を生成する。
我々は、wSAAの中央極限定理を確立し、最適条件予測コストに対する漸近正規性に基づく信頼区間を構築する。
計算予算下での統計的-計算的トレードオフを解析し、サンプルサイズと最適化イテレーション間のリソース割り当てを特徴付けることにより、統計的および最適化エラーのバランスをとる。
これらの割当規則は目的の構造的パラメータに依存しており、不特定はwSAA推定器の漸近最適性を損なう可能性がある。
我々は,予算制約付き推定器の収束率をわずかに低下させることで,「過度に最適化する」(名目規則よりも多くのイテレーションを実行する)ことが,この誤用を軽減し,漸近的正規性を保っていることを示す。
サンプルサイズの増大は、アルゴリズムの繰り返しを減らし、より大きい最適化誤差を課すことで、統計的推測を悪化させる可能性がある。
我々のフレームワークは、計算制約下での文脈決定の不確かさを定量化するための原則的な方法を提供する。
データ取得と最適化の作業の間に限られたリソースを割り当てる実践的なガイダンスを提供し、条件付きパフォーマンスの確実な信頼区間を確保するために、より多くのデータに対して追加の最適化イテレーションを優先するタイミングを明確にする。
関連論文リスト
- Statistical Inference in Tensor Completion: Optimal Uncertainty Quantification and Statistical-to-Computational Gaps [7.174572371800217]
本稿では,不完全かつノイズの多い観測を用いて,テンソル線形形式を統計的に推定する簡易かつ効率的な手法を提案する。
これは、信頼区間の構築、ヘテロスケダティックおよびサブ指数雑音下での推論、同時テストなど、様々な統計的推論タスクに適している。
論文 参考訳(メタデータ) (2024-10-15T03:09:52Z) - Generalization Bounds of Surrogate Policies for Combinatorial Optimization Problems [61.580419063416734]
最近の構造化学習手法のストリームは、様々な最適化問題に対する技術の実践的状態を改善している。
鍵となる考え方は、インスタンスを別々に扱うのではなく、インスタンス上の統計分布を利用することだ。
本稿では,最適化を容易にし,一般化誤差を改善するポリシを摂動することでリスクを円滑にする手法について検討する。
論文 参考訳(メタデータ) (2024-07-24T12:00:30Z) - Stratified Prediction-Powered Inference for Hybrid Language Model Evaluation [62.2436697657307]
予測駆動推論(英: Prediction-powered Inference, PPI)は、人間ラベル付き限られたデータに基づいて統計的推定を改善する手法である。
我々はStratPPI(Stratified Prediction-Powered Inference)という手法を提案する。
単純なデータ階層化戦略を用いることで,基礎的なPPI推定精度を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-06-06T17:37:39Z) - Data-Driven Sample Average Approximation with Covariate Information [0.0]
我々は、コパラメトリックの同時観測とともに、最適化モデル内の不確実なパラメータの観測を行う際に、データ駆動意思決定のための最適化について検討する。
本稿では,機械学習予測モデルをプログラムサンプル平均近似(SAA)に組み込んだ3つのデータ駆動フレームワークについて検討する。
論文 参考訳(メタデータ) (2022-07-27T14:45:04Z) - Differential privacy and robust statistics in high dimensions [49.50869296871643]
高次元Propose-Test-Release (HPTR) は指数的メカニズム、頑健な統計、Propose-Test-Release メカニズムという3つの重要なコンポーネントの上に構築されている。
本論文では,HPTRが複数のシナリオで最適サンプル複雑性をほぼ達成していることを示す。
論文 参考訳(メタデータ) (2021-11-12T06:36:40Z) - Integrated Conditional Estimation-Optimization [6.037383467521294]
確率のある不確実なパラメータを文脈的特徴情報を用いて推定できる実世界の多くの最適化問題である。
不確実なパラメータの分布を推定する標準的な手法とは対照的に,統合された条件推定手法を提案する。
当社のI CEOアプローチは、穏健な条件下で理論的に一貫性があることを示します。
論文 参考訳(メタデータ) (2021-10-24T04:49:35Z) - Outlier-Robust Sparse Estimation via Non-Convex Optimization [73.18654719887205]
空間的制約が存在する場合の高次元統計量と非破壊的最適化の関連について検討する。
これらの問題に対する新規で簡単な最適化法を開発した。
結論として、効率よくステーションに収束する一階法は、これらのタスクに対して効率的なアルゴリズムを導出する。
論文 参考訳(メタデータ) (2021-09-23T17:38:24Z) - Heavy-tailed Streaming Statistical Estimation [58.70341336199497]
ストリーミング$p$のサンプルから重み付き統計推定の課題を考察する。
そこで我々は,傾きの雑音に対して,よりニュアンスな条件下での傾きの傾きの低下を設計し,より詳細な解析を行う。
論文 参考訳(メタデータ) (2021-08-25T21:30:27Z) - Instability, Computational Efficiency and Statistical Accuracy [101.32305022521024]
我々は,人口レベルでのアルゴリズムの決定論的収束率と,$n$サンプルに基づく経験的対象に適用した場合の(不安定性)の間の相互作用に基づいて,統計的精度を得るフレームワークを開発する。
本稿では,ガウス混合推定,非線形回帰モデル,情報的非応答モデルなど,いくつかの具体的なモデルに対する一般結果の応用について述べる。
論文 参考訳(メタデータ) (2020-05-22T22:30:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。