論文の概要: High-Probability Minimax Adaptive Estimation in Besov Spaces via Online-to-Batch
- arxiv url: http://arxiv.org/abs/2602.11747v1
- Date: Thu, 12 Feb 2026 09:24:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.743518
- Title: High-Probability Minimax Adaptive Estimation in Besov Spaces via Online-to-Batch
- Title(参考訳): オンラインバッチによるベソフ空間の高確率ミニマックス適応推定
- Authors: Paul Liautaud, Pierre Gaillard, Olivier Wintenberger,
- Abstract要約: 準指数雑音下での雑音観測からベソフ空間上の非パラメトリック回帰を研究する。
本稿では,ウェーブレットに基づくオンライン学習アルゴリズムを提案する。
より洗練されたオンライン・バッチ変換により,ベソフ空間の適応的・最小最適推定値を得る。
- 参考スコア(独自算出の注目度): 8.691764858459623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study nonparametric regression over Besov spaces from noisy observations under sub-exponential noise, aiming to achieve minimax-optimal guarantees on the integrated squared error that hold with high probability and adapt to the unknown noise level. To this end, we propose a wavelet-based online learning algorithm that dynamically adjusts to the observed gradient noise by adaptively clipping it at an appropriate level, eliminating the need to tune parameters such as the noise variance or gradient bounds. As a by-product of our analysis, we derive high-probability adaptive regret bounds that scale with the $\ell_1$-norm of the competitor. Finally, in the batch statistical setting, we obtain adaptive and minimax-optimal estimation rates for Besov spaces via a refined online-to-batch conversion. This approach carefully exploits the structure of the squared loss in combination with self-normalized concentration inequalities.
- Abstract(参考訳): 準指数雑音下での雑音観測からベソフ空間上の非パラメトリック回帰について検討し、高い確率で保持し未知の雑音レベルに適応する積分二乗誤差の最小最適保証を実現することを目的とした。
そこで本研究では,ウェーブレットをベースとしたオンライン学習アルゴリズムを提案する。このアルゴリズムは,適切なレベルに切り抜き,ノイズ分散や勾配境界などのパラメータを調整する必要をなくし,観測された勾配雑音に適応的に適応的に適応する。
解析の副産物として、競合の$\ell_1$-normとスケールする高確率適応的後悔境界を導出する。
最後に、バッチ統計設定において、洗練されたオンライン・バッチ変換により、ベソフ空間の適応的および最小最大最適推定値を得る。
このアプローチは、自己正規化濃度の不等式と組み合わせて、二乗損失の構造を慎重に活用する。
関連論文リスト
- Minimax Adaptive Online Nonparametric Regression over Besov Spaces [8.691764858459623]
我々は,連続的かつ極めて不規則な予測規則の豊富なクラスに対して,凸損失を伴うオンライン逆回帰について検討した。
本稿では,$(s,p,q)$の事前知識を必要とせずに逐次予測を行う適応ウェーブレットベースのアルゴリズムを提案する。
また、空間的不均一な滑らかさを動的に追跡できる局所適応拡張を設計する。
論文 参考訳(メタデータ) (2025-05-26T09:23:11Z) - Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - Gradient Normalization Provably Benefits Nonconvex SGD under Heavy-Tailed Noise [60.92029979853314]
重み付き雑音下でのグラディエントDescence(SGD)の収束を確実にする上での勾配正規化とクリッピングの役割について検討する。
我々の研究は、重尾雑音下でのSGDの勾配正規化の利点を示す最初の理論的証拠を提供する。
我々は、勾配正規化とクリッピングを取り入れた加速SGD変種を導入し、さらに重み付き雑音下での収束率を高めた。
論文 参考訳(メタデータ) (2024-10-21T22:40:42Z) - Stochastic Zeroth-Order Optimization under Strongly Convexity and Lipschitz Hessian: Minimax Sample Complexity [59.75300530380427]
本稿では,アルゴリズムが検索対象関数の雑音評価にのみアクセス可能な2次スムーズかつ強い凸関数を最適化する問題を考察する。
本研究は, ミニマックス単純後悔率について, 一致した上界と下界を発達させることにより, 初めて厳密な評価を行ったものである。
論文 参考訳(メタデータ) (2024-06-28T02:56:22Z) - Batches Stabilize the Minimum Norm Risk in High Dimensional Overparameterized Linear Regression [12.443289202402761]
最小ノルム過パラメータ線形回帰モデルのレンズによるバッチ分割の利点を示す。
最適なバッチサイズを特徴付け、ノイズレベルに逆比例することを示す。
また,Weiner係数と同等の係数によるバッチ最小ノルム推定器の縮小がさらに安定化し,全ての設定において2次リスクを低くすることを示した。
論文 参考訳(メタデータ) (2023-06-14T11:02:08Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - Benign overfitting and adaptive nonparametric regression [71.70323672531606]
本研究では,データポイントを高い確率で補間する連続関数である推定器を構築する。
我々は未知の滑らかさに適応してH"古いクラスのスケールにおいて平均2乗リスクの下で最小値の最適速度を得る。
論文 参考訳(メタデータ) (2022-06-27T14:50:14Z) - Differentiable Annealed Importance Sampling and the Perils of Gradient
Noise [68.44523807580438]
Annealed importance sample (AIS) と関連するアルゴリズムは、限界推定のための非常に効果的なツールである。
差別性は、目的として限界確率を最適化する可能性を認めるため、望ましい性質である。
我々はメトロポリス・ハスティングスのステップを放棄して微分可能アルゴリズムを提案し、ミニバッチ計算をさらに解き放つ。
論文 参考訳(メタデータ) (2021-07-21T17:10:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。