論文の概要: Pre-Trained AI Model Assisted Online Decision-Making under Missing Covariates: A Theoretical Perspective
- arxiv url: http://arxiv.org/abs/2507.07852v1
- Date: Thu, 10 Jul 2025 15:33:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 16:40:15.462023
- Title: Pre-Trained AI Model Assisted Online Decision-Making under Missing Covariates: A Theoretical Perspective
- Title(参考訳): 未知の共変量の下でのオンライン意思決定を支援する事前学習AIモデル:理論的展望
- Authors: Haichen Hu, David Simchi-Levi,
- Abstract要約: 「モデル弾力性」は、モデル計算による後悔を特徴付ける統一的な方法である。
ランダム(MAR)環境下では,事前学習したモデルの逐次校正が可能であることを示す。
本分析では、逐次意思決定タスクにおいて、正確な事前学習モデルを持つことの実用的価値を強調した。
- 参考スコア(独自算出の注目度): 12.160708336715489
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study a sequential contextual decision-making problem in which certain covariates are missing but can be imputed using a pre-trained AI model. From a theoretical perspective, we analyze how the presence of such a model influences the regret of the decision-making process. We introduce a novel notion called "model elasticity", which quantifies the sensitivity of the reward function to the discrepancy between the true covariate and its imputed counterpart. This concept provides a unified way to characterize the regret incurred due to model imputation, regardless of the underlying missingness mechanism. More surprisingly, we show that under the missing at random (MAR) setting, it is possible to sequentially calibrate the pre-trained model using tools from orthogonal statistical learning and doubly robust regression. This calibration significantly improves the quality of the imputed covariates, leading to much better regret guarantees. Our analysis highlights the practical value of having an accurate pre-trained model in sequential decision-making tasks and suggests that model elasticity may serve as a fundamental metric for understanding and improving the integration of pre-trained models in a wide range of data-driven decision-making problems.
- Abstract(参考訳): 我々は、ある共変体が欠落しているが、事前訓練されたAIモデルを用いて説明できる、逐次的文脈決定問題について研究する。
理論的観点から、そのようなモデルの存在が意思決定プロセスの後悔にどのように影響するかを分析する。
モデル弾力性(model elasticity)と呼ばれる新しい概念を導入し、真の共変量とその説明される相違点に対する報酬関数の感度を定量化する。
この概念は、根底にある欠陥メカニズムに関係なく、モデル計算によって生じた後悔を特徴付ける統一的な方法を提供する。
より驚くべきことに、ランダム(MAR)環境では、直交統計学習と二重頑健な回帰のツールを用いて、事前学習したモデルを逐次校正することが可能である。
この校正により、汚染された共変量体の品質が大幅に向上し、後悔の保証が大幅に改善される。
本分析は, 逐次的意思決定タスクにおいて, 正確な事前学習モデルを持つことの実用的価値を強調し, モデル弾力性は, 幅広いデータ駆動意思決定問題における事前学習モデルの統合の理解と改善の基本的な指標となる可能性があることを示唆する。
関連論文リスト
- On Equivariant Model Selection through the Lens of Uncertainty [49.137341292207]
等変モデルは、予測性能を改善するために対称性に関する事前の知識を活用するが、不特定なアーキテクチャ上の制約がそれを傷つける可能性がある。
我々は、頻繁な(コンフォーマル予測による)、ベイジアン(限界確率による)、およびキャリブレーションに基づく評価による誤りに基づく評価の比較を行った。
不確実性指標は一般的に予測性能と一致するが,ベイズ模型の証拠は矛盾する。
論文 参考訳(メタデータ) (2025-06-23T13:35:06Z) - Joint Explainability-Performance Optimization With Surrogate Models for AI-Driven Edge Services [3.8688731303365533]
本稿では,複雑なAIモデルの予測精度と代理モデルによる近似とのバランスについて検討する。
我々は,多目的最適化(MOO)に基づく新しいアルゴリズムを導入し,複雑なモデルの予測誤差と,その出力とサロゲートの誤差を同時に最小化する。
論文 参考訳(メタデータ) (2025-03-10T19:04:09Z) - Selective Learning: Towards Robust Calibration with Dynamic Regularization [79.92633587914659]
ディープラーニングにおけるミススキャリブレーションとは、予測された信頼とパフォーマンスの間には相違がある、という意味である。
トレーニング中に何を学ぶべきかを学ぶことを目的とした動的正規化(DReg)を導入し、信頼度調整のトレードオフを回避する。
論文 参考訳(メタデータ) (2024-02-13T11:25:20Z) - Deep autoregressive density nets vs neural ensembles for model-based
offline reinforcement learning [2.9158689853305693]
本稿では、利用可能なデータからシステムダイナミクスを推定し、仮想モデルロールアウトにおけるポリシー最適化を行うモデルベース強化学習アルゴリズムについて考察する。
このアプローチは、実際のシステムで破滅的な失敗を引き起こす可能性のあるモデルエラーを悪用することに対して脆弱である。
D4RLベンチマークの1つのよく校正された自己回帰モデルにより、より良い性能が得られることを示す。
論文 参考訳(メタデータ) (2024-02-05T10:18:15Z) - Value-Distributional Model-Based Reinforcement Learning [59.758009422067]
政策の長期的業績に関する不確実性の定量化は、シーケンシャルな意思決定タスクを解決するために重要である。
モデルに基づくベイズ強化学習の観点から問題を考察する。
本稿では,値分布関数を学習するモデルに基づくアルゴリズムであるEpicemic Quantile-Regression(EQR)を提案する。
論文 参考訳(メタデータ) (2023-08-12T14:59:19Z) - Post-hoc Uncertainty Learning using a Dirichlet Meta-Model [28.522673618527417]
本研究では,不確実性定量化能力の優れた事前学習モデルを構築するための新しいベイズメタモデルを提案する。
提案手法は追加のトレーニングデータを必要としないため,不確かさの定量化に十分な柔軟性がある。
提案するメタモデルアプローチの柔軟性と,これらのアプリケーションに対する優れた経験的性能を実証する。
論文 参考訳(メタデータ) (2022-12-14T17:34:11Z) - The Implicit Delta Method [61.36121543728134]
本稿では,不確実性のトレーニング損失を無限に正規化することで機能する,暗黙のデルタ法を提案する。
有限差分により無限小変化が近似された場合でも, 正則化による評価の変化は評価推定器の分散に一定であることを示す。
論文 参考訳(メタデータ) (2022-11-11T19:34:17Z) - Uncertainty estimation under model misspecification in neural network
regression [3.2622301272834524]
モデル選択が不確実性評価に与える影響について検討する。
モデルミスセグメンテーションでは,アレータリック不確実性は適切に捉えられていない。
論文 参考訳(メタデータ) (2021-11-23T10:18:41Z) - Control as Hybrid Inference [62.997667081978825]
本稿では、反復推論と償却推論のバランスを自然に仲介するCHIの実装について述べる。
連続的な制御ベンチマークでアルゴリズムのスケーラビリティを検証し、強力なモデルフリーおよびモデルベースラインを上回る性能を示す。
論文 参考訳(メタデータ) (2020-07-11T19:44:09Z) - A comprehensive study on the prediction reliability of graph neural
networks for virtual screening [0.0]
本稿では,モデルアーキテクチャ,正規化手法,損失関数が分類結果の予測性能および信頼性に与える影響について検討する。
その結果,高い成功率を達成するためには,正則化と推論手法の正しい選択が重要であることが明らかとなった。
論文 参考訳(メタデータ) (2020-03-17T10:13:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。