論文の概要: Fast Rates for Nonstationary Weighted Risk Minimization
- arxiv url: http://arxiv.org/abs/2602.05742v1
- Date: Thu, 05 Feb 2026 15:10:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.994175
- Title: Fast Rates for Nonstationary Weighted Risk Minimization
- Title(参考訳): 非定常重み付きリスク最小化の高速化
- Authors: Tobias Brock, Thomas Nagler,
- Abstract要約: 本稿では,非定常条件下でのサンプル外予測誤差について検討する。
本稿では,過大リスクを学習項と分布ドリフトに関連する誤り項に一般化する。
- 参考スコア(独自算出の注目度): 6.015898117103068
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Weighted empirical risk minimization is a common approach to prediction under distribution drift. This article studies its out-of-sample prediction error under nonstationarity. We provide a general decomposition of the excess risk into a learning term and an error term associated with distribution drift, and prove oracle inequalities for the learning error under mixing conditions. The learning bound holds uniformly over arbitrary weight classes and accounts for the effective sample size induced by the weight vector, the complexity of the weight and hypothesis classes, and potential data dependence. We illustrate the applicability and sharpness of our results in (auto-) regression problems with linear models, basis approximations, and neural networks, recovering minimax-optimal rates (up to logarithmic factors) when specialized to unweighted and stationary settings.
- Abstract(参考訳): 重み付き経験的リスク最小化(Weighted empirical risk minimization)は、分布ドリフト下での予測に対する一般的なアプローチである。
本稿では,非定常条件下でのサンプル外予測誤差について検討する。
混合条件下では,過大リスクを学習項と分布ドリフトに関連付けられたエラー項に一般化し,学習誤差のオラクル不等式を証明する。
学習境界は任意の重みクラスに対して均一に保持され、重みベクトルによって誘導される効果的なサンプルサイズ、重みと仮説クラスの複雑さ、潜在的なデータ依存を説明できる。
本稿では、線形モデル、基底近似、ニューラルネットワークによる回帰問題(自動回帰問題)における結果の適用性とシャープさを説明し、非重み付きおよび定常的な設定に特化する場合の最小最適値(対数係数まで)を回復する。
関連論文リスト
- Regularizing Extrapolation in Causal Inference [12.057981453189505]
我々は外挿のレベルを直接罰する統一的な枠組みを提案する。
最悪の外挿誤差を導出し、新しい「バイアスバイアス分散」トレードオフを導入する。
論文 参考訳(メタデータ) (2025-09-21T18:05:15Z) - Sample Weight Averaging for Stable Prediction [33.96006836156484]
アウト・オブ・ディストリビューションの一般化の課題は、機械学習アルゴリズムを危険に敏感な領域に応用するための基礎的な懸念を生じさせる。
本稿では,様々なサンプル再重み付けアルゴリズムに普遍的に統合し,分散および係数推定誤差を低減できる簡易かつ効率的な戦略であるSAmple Weight Averaging (zawa)を提案する。
論文 参考訳(メタデータ) (2025-02-11T09:51:22Z) - Risk and cross validation in ridge regression with correlated samples [72.59731158970894]
我々は,データポイントが任意の相関関係を持つ場合,リッジ回帰のイン・オブ・サンプルリスクのトレーニング例を提供する。
この設定では、一般化されたクロスバリデーション推定器(GCV)がサンプル外リスクを正確に予測できないことを示す。
さらに、テストポイントがトレーニングセットと非自明な相関を持つ場合、時系列予測でしばしば発生する設定にまで分析を拡張します。
論文 参考訳(メタデータ) (2024-08-08T17:27:29Z) - Generalization Bounds of Surrogate Policies for Combinatorial Optimization Problems [53.03951222945921]
我々はスムーズな(摂動された)ポリシーを解析し、線形オラクルが使用する方向に対して制御されたランダムな摂動を付加する。
我々の主な貢献は、過剰リスクを摂動バイアス、統計的推定誤差、最適化誤差に分解する一般化境界である。
車両のスケジューリングやスムーズ化がトラクタブルトレーニングと制御された一般化の両方を可能にしていることを示す。
論文 参考訳(メタデータ) (2024-07-24T12:00:30Z) - Error Bounds of Supervised Classification from Information-Theoretic Perspective [0.0]
我々は、情報理論の観点から、教師付き分類にディープニューラルネットワークを使用する場合の予測リスクのバウンダリについて検討する。
経験的リスクをさらに分解したモデルリスクとフィッティングエラーを導入する。
論文 参考訳(メタデータ) (2024-06-07T01:07:35Z) - Selective Nonparametric Regression via Testing [54.20569354303575]
本研究では,所定の点における条件分散の値に関する仮説を検証し,留置手順を開発する。
既存の手法とは異なり、提案手法は分散自体の値だけでなく、対応する分散予測器の不確実性についても考慮することができる。
論文 参考訳(メタデータ) (2023-09-28T13:04:11Z) - Near-optimal inference in adaptive linear regression [60.08422051718195]
最小二乗法のような単純な方法でさえ、データが適応的に収集されるときの非正規な振る舞いを示すことができる。
我々は,これらの分布異常を少なくとも2乗推定で補正するオンラインデバイアス推定器のファミリーを提案する。
我々は,マルチアームバンディット,自己回帰時系列推定,探索による能動的学習などの応用を通して,我々の理論の有用性を実証する。
論文 参考訳(メタデータ) (2021-07-05T21:05:11Z) - Risk Minimization from Adaptively Collected Data: Guarantees for
Supervised and Policy Learning [57.88785630755165]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、機械学習のワークホースであるが、適応的に収集されたデータを使用すると、そのモデルに依存しない保証が失敗する可能性がある。
本研究では,仮説クラス上での損失関数の平均値を最小限に抑えるため,適応的に収集したデータを用いた一般的な重み付きERMアルゴリズムについて検討する。
政策学習では、探索がゼロになるたびに既存の文献のオープンギャップを埋める率-最適後悔保証を提供する。
論文 参考訳(メタデータ) (2021-06-03T09:50:13Z) - Robust Unsupervised Learning via L-Statistic Minimization [38.49191945141759]
教師なし学習に焦点をあて、この問題に対する一般的なアプローチを提示する。
重要な仮定は、摂動分布は、許容モデルの特定のクラスに対するより大きな損失によって特徴付けられることである。
教師なし学習におけるいくつかのポピュラーモデルに対する提案基準に関して,一様収束境界を証明した。
論文 参考訳(メタデータ) (2020-12-14T10:36:06Z) - A One-step Approach to Covariate Shift Adaptation [82.01909503235385]
多くの機械学習シナリオにおけるデフォルトの前提は、トレーニングとテストサンプルは同じ確率分布から引き出されることである。
予測モデルと関連する重みを1つの最適化で共同で学習する新しいワンステップアプローチを提案する。
論文 参考訳(メタデータ) (2020-07-08T11:35:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。