論文の概要: Inverse learning in Hilbert scales
- arxiv url: http://arxiv.org/abs/2002.10208v1
- Date: Mon, 24 Feb 2020 12:49:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 04:42:44.951889
- Title: Inverse learning in Hilbert scales
- Title(参考訳): ヒルベルトスケールにおける逆学習
- Authors: Abhishake Rastogi and Peter Math\'e
- Abstract要約: 統計的学習環境における雑音データを用いた線形不定形逆問題について検討する。
ヒルベルトスケールの一般正規化スキームを用いてランダムノイズデータからの近似再構成を求める。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the linear ill-posed inverse problem with noisy data in the
statistical learning setting. Approximate reconstructions from random noisy
data are sought with general regularization schemes in Hilbert scale. We
discuss the rates of convergence for the regularized solution under the prior
assumptions and a certain link condition. We express the error in terms of
certain distance functions. For regression functions with smoothness given in
terms of source conditions the error bound can then be explicitly established.
- Abstract(参考訳): 統計的学習環境におけるノイズデータを含む線形不定逆問題について検討する。
ヒルベルトスケールの一般正規化スキームを用いてランダムノイズデータからの近似再構成を求める。
本稿では,事前仮定とリンク条件の下での正規化解の収束率について考察する。
我々は、ある距離関数の観点で誤差を表現する。
ソース条件で与えられた滑らかな回帰関数に対しては、エラー境界を明示的に確立することができる。
関連論文リスト
- Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - Learning Memory Kernels in Generalized Langevin Equations [5.266892492931388]
一般化ランゲヴィン方程式におけるメモリカーネル学習のための新しい手法を提案する。
このアプローチは最初、軌道データから相関関数を推定するために正規化Prony法を使用し、続いてRKHS正則化を伴うソボレフノルムに基づく損失関数の回帰を行う。
論文 参考訳(メタデータ) (2024-02-18T21:01:49Z) - Kernel-based off-policy estimation without overlap: Instance optimality
beyond semiparametric efficiency [53.90687548731265]
本研究では,観測データに基づいて線形関数を推定するための最適手順について検討する。
任意の凸および対称函数クラス $mathcalF$ に対して、平均二乗誤差で有界な非漸近局所ミニマックスを導出する。
論文 参考訳(メタデータ) (2023-01-16T02:57:37Z) - Statistical Inverse Problems in Hilbert Scales [0.0]
一般雑音を伴う非線形統計逆問題に対するヒルベルトスケールにおけるチコノフ正則化スキームについて検討する。
このスキームの正規化ノルムはヒルベルト空間のノルムよりも強い。
論文 参考訳(メタデータ) (2022-08-28T21:06:05Z) - Experimental Design for Linear Functionals in Reproducing Kernel Hilbert
Spaces [102.08678737900541]
線形汎関数に対するバイアス認識設計のためのアルゴリズムを提供する。
準ガウス雑音下での固定および適応設計に対する漸近的でない信頼集合を導出する。
論文 参考訳(メタデータ) (2022-05-26T20:56:25Z) - Optimal Recovery from Inaccurate Data in Hilbert Spaces: Regularize, but
what of the Parameter? [6.85316573653194]
本稿では、ヒルベルト空間のフレームワークにおける近似性に基づくモデル仮定について考察する。
また、$ell$でバウンドされた追加エラーによる観察上の不正確さも含んでいる。
ローカルシナリオとグローバルシナリオのギャップを埋めます。
論文 参考訳(メタデータ) (2021-11-04T03:02:55Z) - On the Double Descent of Random Features Models Trained with SGD [78.0918823643911]
勾配降下(SGD)により最適化された高次元におけるランダム特徴(RF)回帰特性について検討する。
本研究では, RF回帰の高精度な非漸近誤差境界を, 定常および適応的なステップサイズSGD設定の下で導出する。
理論的にも経験的にも二重降下現象を観察する。
論文 参考訳(メタデータ) (2021-10-13T17:47:39Z) - Uniform Function Estimators in Reproducing Kernel Hilbert Spaces [0.0]
本稿では,ランダムな位置で重畳された誤差で観測される関数再構成の回帰問題に対処する。
ガウス確率場を用いて導出される推定器は、ヒルベルト空間を条件付き期待値に再現するカーネルの平均ノルムに収束することが示されている。
論文 参考訳(メタデータ) (2021-08-16T08:13:28Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z) - Optimal oracle inequalities for solving projected fixed-point equations [53.31620399640334]
ヒルベルト空間の既知の低次元部分空間を探索することにより、確率観測の集合を用いて近似解を計算する手法を検討する。
本稿では,線形関数近似を用いた政策評価問題に対する時間差分学習手法の誤差を正確に評価する方法について述べる。
論文 参考訳(メタデータ) (2020-12-09T20:19:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。