論文の概要: Towards Sharp Minimax Risk Bounds for Operator Learning
- arxiv url: http://arxiv.org/abs/2512.17805v1
- Date: Fri, 19 Dec 2025 17:07:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.508175
- Title: Towards Sharp Minimax Risk Bounds for Operator Learning
- Title(参考訳): 演算子学習のためのシャープ最小リスク境界を目指して
- Authors: Ben Adcock, Gregor Maier, Rahul Parhi,
- Abstract要約: 我々は、一様有界リプシッツ作用素に対して、情報理論の下界とマッチングあるいは近接マッチングの上界を共に証明する。
重要な意味はサンプル複雑性の呪いであり、これは一般リプシッツ作用素のミニマックスリスクがサンプルサイズにおける任意の代数的速度で崩壊できないことを示している。
- 参考スコア(独自算出の注目度): 8.781886844319231
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We develop a minimax theory for operator learning, where the goal is to estimate an unknown operator between separable Hilbert spaces from finitely many noisy input-output samples. For uniformly bounded Lipschitz operators, we prove information-theoretic lower bounds together with matching or near-matching upper bounds, covering both fixed and random designs under Hilbert-valued Gaussian noise and Gaussian white noise errors. The rates are controlled by the spectrum of the covariance operator of the measure that defines the error metric. Our setup is very general and allows for measures with unbounded support. A key implication is a curse of sample complexity which shows that the minimax risk for generic Lipschitz operators cannot decay at any algebraic rate in the sample size. We obtain essentially sharp characterizations when the covariance spectrum decays exponentially and provide general upper and lower bounds in slower-decay regimes.
- Abstract(参考訳): 演算子学習のためのミニマックス理論を開発し、目的は有限個の雑音入出力サンプルから分離可能なヒルベルト空間間で未知の作用素を推定することである。
一様有界リプシッツ作用素に対して、Hilbert-valued Gaussian noise と Gaussian white noise error の下での固定およびランダムな設計の両方をカバーし、マッチングあるいは近接マッチングの上界と共に情報理論の下界を証明する。
レートは、誤差計量を定義する測度の共分散作用素のスペクトルによって制御される。
私たちの設定は非常に一般的で、無制限のサポートによる措置を可能にします。
重要な意味はサンプル複雑性の呪いであり、これは一般リプシッツ作用素のミニマックスリスクがサンプルサイズにおける任意の代数的速度で崩壊できないことを示している。
我々は、共分散スペクトルが指数関数的に減衰するときに本質的に鋭い特徴を得るとともに、緩やかなデカイ状態における一般的な上と下の境界を与える。
関連論文リスト
- The Sample Complexity of Learning Lipschitz Operators with respect to Gaussian Measures [1.037768322019687]
ガウス測度に関するリプシッツ作用素の近似について検討する。
任意の(潜在的に適応的な)線形サンプルからリプシッツ作用素の一般的な再構成戦略について検討する。
論文 参考訳(メタデータ) (2024-10-30T20:32:30Z) - Batches Stabilize the Minimum Norm Risk in High Dimensional Overparameterized Linear Regression [12.443289202402761]
最小ノルム過パラメータ線形回帰モデルのレンズによるバッチ分割の利点を示す。
最適なバッチサイズを特徴付け、ノイズレベルに逆比例することを示す。
また,Weiner係数と同等の係数によるバッチ最小ノルム推定器の縮小がさらに安定化し,全ての設定において2次リスクを低くすることを示した。
論文 参考訳(メタデータ) (2023-06-14T11:02:08Z) - Limitations of Information-Theoretic Generalization Bounds for Gradient
Descent Methods in Stochastic Convex Optimization [48.12845778927164]
凸最適化の設定において,勾配勾配降下の最小値設定の見通しを考察する。
勾配法の研究においてよく用いられる手法として、最終回はガウス雑音によって劣化し、ノイズの多い「代理」アルゴリズムが生成される。
以上の結果から,情報理論を用いた勾配降下解析には新たな考え方が必要であることが示唆された。
論文 参考訳(メタデータ) (2022-12-27T17:16:48Z) - Learning Dynamical Systems via Koopman Operator Regression in
Reproducing Kernel Hilbert Spaces [52.35063796758121]
動的システムの有限データ軌跡からクープマン作用素を学ぶためのフレームワークを定式化する。
リスクとクープマン作用素のスペクトル分解の推定を関連付ける。
以上の結果から,RRRは他の広く用いられている推定値よりも有益である可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-27T14:57:48Z) - Optimally tackling covariate shift in RKHS-based nonparametric
regression [43.457497490211985]
我々は、慎重に選択された正規化パラメータを持つカーネルリッジ回帰推定器がミニマックスレート最適であることを示す。
また,関数クラスに対する経験的リスクを最小限に抑えるナイーブ推定器は,厳密に準最適であることを示す。
そこで本研究では, 再重み付きKRR推定器を提案する。
論文 参考訳(メタデータ) (2022-05-06T02:33:24Z) - Optimal variance-reduced stochastic approximation in Banach spaces [114.8734960258221]
可分バナッハ空間上で定義された収縮作用素の定点を推定する問題について検討する。
演算子欠陥と推定誤差の両方に対して漸近的でない境界を確立する。
論文 参考訳(メタデータ) (2022-01-21T02:46:57Z) - Optimal policy evaluation using kernel-based temporal difference methods [78.83926562536791]
カーネルヒルベルト空間を用いて、無限水平割引マルコフ報酬過程の値関数を推定する。
我々は、関連するカーネル演算子の固有値に明示的に依存した誤差の非漸近上界を導出する。
MRP のサブクラスに対する minimax の下位境界を証明する。
論文 参考訳(メタデータ) (2021-09-24T14:48:20Z) - Convergence Rates for Learning Linear Operators from Noisy Data [6.4423565043274795]
本研究では,空間上の線形演算子を学習する逆問題について,ランダムな入力データに対する雑音の多い点評価から検討する。
ボヒナーノルムの族に対する後部収縮速度は、推定誤差よりも無限小の傾向にあるため確立する。
これらの収束速度は、有界あるいはコンパクトな作用素の学習と比較して線形作用素の学習の難しさを強調し、定量化する。
論文 参考訳(メタデータ) (2021-08-27T22:09:53Z) - A Unifying Theory of Thompson Sampling for Continuous Risk-Averse
Bandits [91.3755431537592]
本稿では,多腕バンディット問題に対するリスク-逆トンプソンサンプリングアルゴリズムの解析を統一する。
大規模偏差理論における収縮原理を用いることで、連続リスク汎関数に対する新しい濃度境界が証明される。
リスク関数の幅広いクラスと「ニセ」関数が連続性条件を満たすことを示す。
論文 参考訳(メタデータ) (2021-08-25T17:09:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。