論文の概要: Convergence Rates for Learning Linear Operators from Noisy Data
- arxiv url: http://arxiv.org/abs/2108.12515v1
- Date: Fri, 27 Aug 2021 22:09:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-31 14:51:09.561862
- Title: Convergence Rates for Learning Linear Operators from Noisy Data
- Title(参考訳): 雑音データから線形演算子を学習するための収束率
- Authors: Maarten V. de Hoop, Nikola B. Kovachki, Nicholas H. Nelsen, Andrew M.
Stuart
- Abstract要約: 本研究では,空間上の線形演算子を学習する逆問題について,ランダムな入力データに対する雑音の多い点評価から検討する。
ボヒナーノルムの族に対する後部収縮速度は、推定誤差よりも無限小の傾向にあるため確立する。
これらの収束速度は、有界あるいはコンパクトな作用素の学習と比較して線形作用素の学習の難しさを強調し、定量化する。
- 参考スコア(独自算出の注目度): 6.4423565043274795
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the Bayesian inverse problem of learning a linear operator on a
Hilbert space from its noisy pointwise evaluations on random input data. Our
framework assumes that this target operator is self-adjoint and diagonal in a
basis shared with the Gaussian prior and noise covariance operators arising
from the imposed statistical model and is able to handle target operators that
are compact, bounded, or even unbounded. We establish posterior contraction
rates with respect to a family of Bochner norms as the number of data tend to
infinity and derive related lower bounds on the estimation error. In the large
data limit, we also provide asymptotic convergence rates of suitably defined
excess risk and generalization gap functionals associated with the posterior
mean point estimator. In doing so, we connect the posterior consistency results
to nonparametric learning theory. Furthermore, these convergence rates
highlight and quantify the difficulty of learning unbounded linear operators in
comparison with the learning of bounded or compact ones. Numerical experiments
confirm the theory and demonstrate that similar conclusions may be expected in
more general problem settings.
- Abstract(参考訳): ヒルベルト空間上で線形作用素を学習するベイズ逆問題について,無作為入力データを用いたノイズのある点的評価から検討する。
提案手法では, この対象演算子は, 与えられた統計モデルから生じるガウス前値および雑音共分散演算子と共有され, コンパクト, 有界, および非有界な対象演算子を扱うことができることを前提として, 自己随伴的かつ対角的であることを仮定する。
ボシュナーノルムの族に関して、データの数は無限大であり、推定誤差に関する関連する下限を導出する傾向があるため、後部収縮率を確立する。
大規模データ限界では, 後方平均点推定器に付随する, 最適に定義された過剰リスクと一般化ギャップ関数の漸近収束率も提供する。
これにより、後続の一貫性を非パラメトリック学習理論に接続する。
さらに、これらの収束率は、有界あるいはコンパクトな作用素の学習と比較して、非有界線型作用素の学習の難しさを強調し、定量化する。
数値実験はこの理論を検証し、より一般的な問題において同様の結論が期待できることを示した。
関連論文リスト
- Gaussian and Bootstrap Approximation for Matching-based Average Treatment Effect Estimators [12.818275315985971]
ガウス近似の精度に及ぼすマッチ数や処理バランスなどの重要な問題パラメータの影響を定量化する。
我々の研究は、一般的に使われているATE推定器の新たな理論的枠組みを導入するだけでなく、漸近的に有効な信頼区間を構築するためのデータ駆動手法も提供する。
論文 参考訳(メタデータ) (2024-12-22T22:47:31Z) - Learning Operators with Stochastic Gradient Descent in General Hilbert Spaces [5.663076715852465]
本研究では、一般ヒルベルト空間間の作用素の学習に勾配降下(SGD)を活用することを検討する。
我々は、SGDアルゴリズムの収束率の上限を確立し、最小限の低境界解析を行う。
ベクトル値および実値のカーネルヒルベルト空間に基づく演算子学習問題への解析の適用により、新たな収束結果が得られる。
論文 参考訳(メタデータ) (2024-02-07T09:31:01Z) - Learning a Gaussian Mixture for Sparsity Regularization in Inverse
Problems [2.375943263571389]
逆問題では、スパーシティ事前の組み込みは、解に対する正則化効果をもたらす。
本稿では,ガウスの混合として事前に定式化された確率的疎性について提案する。
我々は、このネットワークのパラメータを推定するために、教師なしのトレーニング戦略と教師なしのトレーニング戦略をそれぞれ導入した。
論文 参考訳(メタデータ) (2024-01-29T22:52:57Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Kernel-based off-policy estimation without overlap: Instance optimality
beyond semiparametric efficiency [53.90687548731265]
本研究では,観測データに基づいて線形関数を推定するための最適手順について検討する。
任意の凸および対称函数クラス $mathcalF$ に対して、平均二乗誤差で有界な非漸近局所ミニマックスを導出する。
論文 参考訳(メタデータ) (2023-01-16T02:57:37Z) - Instance-Dependent Generalization Bounds via Optimal Transport [51.71650746285469]
既存の一般化境界は、現代のニューラルネットワークの一般化を促進する重要な要因を説明することができない。
データ空間における学習予測関数の局所リプシッツ正則性に依存するインスタンス依存の一般化境界を導出する。
ニューラルネットワークに対する一般化境界を実験的に解析し、有界値が有意義であることを示し、トレーニング中の一般的な正規化方法の効果を捉える。
論文 参考訳(メタデータ) (2022-11-02T16:39:42Z) - Learning Dynamical Systems via Koopman Operator Regression in
Reproducing Kernel Hilbert Spaces [52.35063796758121]
動的システムの有限データ軌跡からクープマン作用素を学ぶためのフレームワークを定式化する。
リスクとクープマン作用素のスペクトル分解の推定を関連付ける。
以上の結果から,RRRは他の広く用いられている推定値よりも有益である可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-27T14:57:48Z) - Optimal variance-reduced stochastic approximation in Banach spaces [114.8734960258221]
可分バナッハ空間上で定義された収縮作用素の定点を推定する問題について検討する。
演算子欠陥と推定誤差の両方に対して漸近的でない境界を確立する。
論文 参考訳(メタデータ) (2022-01-21T02:46:57Z) - Nonparametric Score Estimators [49.42469547970041]
未知分布によって生成されたサンプルの集合からスコアを推定することは確率モデルの推論と学習における基本的なタスクである。
正規化非パラメトリック回帰の枠組みの下で、これらの推定器の統一的なビューを提供する。
カールフリーカーネルと高速収束による計算効果を享受する反復正規化に基づくスコア推定器を提案する。
論文 参考訳(メタデータ) (2020-05-20T15:01:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。