論文の概要: Mitigating Covariate Shift in Misspecified Regression with Applications
to Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2401.12216v1
- Date: Mon, 22 Jan 2024 18:59:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 12:51:13.523522
- Title: Mitigating Covariate Shift in Misspecified Regression with Applications
to Reinforcement Learning
- Title(参考訳): 偏差回帰における共変量シフトの緩和と強化学習への応用
- Authors: Philip Amortila, Tongyi Cao, Akshay Krishnamurthy
- Abstract要約: 本研究では,分布変化がモデルミス種別の有無に及ぼす影響について検討した。
経験的リスク最小化(または標準最小二乗回帰)は、望ましくない不特定性の増幅をもたらす可能性があることを示す。
我々は、この好ましくない振る舞いを避ける新しいアルゴリズムを開発し、したがって、最適な統計率を得ながら、誤特定の増幅を行わない。
- 参考スコア(独自算出の注目度): 39.02112341007981
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A pervasive phenomenon in machine learning applications is distribution
shift, where training and deployment conditions for a machine learning model
differ. As distribution shift typically results in a degradation in
performance, much attention has been devoted to algorithmic interventions that
mitigate these detrimental effects. In this paper, we study the effect of
distribution shift in the presence of model misspecification, specifically
focusing on $L_{\infty}$-misspecified regression and adversarial covariate
shift, where the regression target remains fixed while the covariate
distribution changes arbitrarily. We show that empirical risk minimization, or
standard least squares regression, can result in undesirable misspecification
amplification where the error due to misspecification is amplified by the
density ratio between the training and testing distributions. As our main
result, we develop a new algorithm -- inspired by robust optimization
techniques -- that avoids this undesirable behavior, resulting in no
misspecification amplification while still obtaining optimal statistical rates.
As applications, we use this regression procedure to obtain new guarantees in
offline and online reinforcement learning with misspecification and establish
new separations between previously studied structural conditions and notions of
coverage.
- Abstract(参考訳): 機械学習応用における広範な現象は、分散シフトであり、機械学習モデルのトレーニングとデプロイメント条件が異なる。
分布シフトは一般的に性能の低下をもたらすため、これらの有害な影響を緩和するアルゴリズム的介入に多くの注意が向けられている。
本稿では,モデル誤特定の存在下での分布シフトの影響について検討し,特に,共変量分布が任意に変化する間,回帰対象が固定されている場合の$l_{\infty}$-misspecified regressionとadversarial covariateシフトに着目した。
経験的リスク最小化(または標準最小二乗回帰)は、トレーニング分布とテスト分布の密度比によって誤特定による誤差が増幅される、望ましくない誤特定増幅をもたらす。
我々の主な結果として、我々は、この望ましくない振る舞いを避けるためのロバストな最適化技術に触発された、新しいアルゴリズムを開発しました。
応用として,この回帰手法を用いて,オフラインとオンラインの強化学習において,誤特定を伴う新たな保証を得るとともに,先行研究した構造条件とカバレッジ概念との新たな分離を確立する。
関連論文リスト
- Regularization for Adversarial Robust Learning [18.46110328123008]
我々は,$phi$-divergence正規化を分散ロバストなリスク関数に組み込む,対角訓練のための新しい手法を開発した。
この正規化は、元の定式化と比較して計算の顕著な改善をもたらす。
本研究では,教師付き学習,強化学習,文脈学習において提案手法の有効性を検証し,様々な攻撃に対して最先端の性能を示す。
論文 参考訳(メタデータ) (2024-08-19T03:15:41Z) - Generalized Gaussian Temporal Difference Error for Uncertainty-aware Reinforcement Learning [0.19418036471925312]
深部強化学習における一般化されたガウス誤差モデリングのための新しい枠組みを提案する。
我々のフレームワークは、高次モーメント、特にカルトーシスを付加することにより、エラー分散モデリングの柔軟性を向上させる。
論文 参考訳(メタデータ) (2024-08-05T08:12:25Z) - Out of the Ordinary: Spectrally Adapting Regression for Covariate Shift [12.770658031721435]
本稿では,学習前のニューラル回帰モデルの最後の層の重みを適応させて,異なる分布から得られる入力データを改善する手法を提案する。
本稿では,この軽量なスペクトル適応手法により,合成および実世界のデータセットの分布外性能が向上することを示す。
論文 参考訳(メタデータ) (2023-12-29T04:15:58Z) - Domain-Adjusted Regression or: ERM May Already Learn Features Sufficient
for Out-of-Distribution Generalization [52.7137956951533]
既存の特徴から予測器を学習するためのよりシンプルな手法を考案することは、将来の研究にとって有望な方向である、と我々は主張する。
本稿では,線形予測器を学習するための凸目標である領域調整回帰(DARE)を紹介する。
自然モデルの下では、DARE解が制限されたテスト分布の集合に対する最小最適予測器であることを証明する。
論文 参考訳(メタデータ) (2022-02-14T16:42:16Z) - Covariate Shift in High-Dimensional Random Feature Regression [44.13449065077103]
共変量シフトは、堅牢な機械学習モデルの開発において重要な障害である。
現代の機械学習の文脈における理論的理解を示す。
論文 参考訳(メタデータ) (2021-11-16T05:23:28Z) - Distribution Mismatch Correction for Improved Robustness in Deep Neural
Networks [86.42889611784855]
正規化法は ノイズや入力の腐敗に関して 脆弱性を増大させる
本稿では,各層の活性化分布に適応する非教師なし非パラメトリック分布補正法を提案する。
実験により,提案手法は画像劣化の激しい影響を効果的に低減することを示した。
論文 参考訳(メタデータ) (2021-10-05T11:36:25Z) - Reparameterized Variational Divergence Minimization for Stable Imitation [57.06909373038396]
確率的発散の選択における変動が、より高性能なILOアルゴリズムをもたらす可能性について検討する。
本稿では,提案する$f$-divergence最小化フレームワークの課題を軽減するために,逆模倣学習のための再パラメータ化手法を提案する。
経験的に、我々の設計選択は、ベースラインアプローチより優れ、低次元連続制御タスクにおける専門家のパフォーマンスとより密に適合するIOOアルゴリズムを許容することを示した。
論文 参考訳(メタデータ) (2020-06-18T19:04:09Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z) - On the Benefits of Invariance in Neural Networks [56.362579457990094]
データ拡張によるトレーニングは、リスクとその勾配をよりよく見積もることを示し、データ拡張でトレーニングされたモデルに対して、PAC-Bayes一般化を提供する。
また,データ拡張と比べ,平均化は凸損失を伴う場合の一般化誤差を低減し,PAC-Bayes境界を狭めることを示した。
論文 参考訳(メタデータ) (2020-05-01T02:08:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。