論文の概要: Learning linear operators: Infinite-dimensional regression as a
well-behaved non-compact inverse problem
- arxiv url: http://arxiv.org/abs/2211.08875v1
- Date: Wed, 16 Nov 2022 12:33:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 16:33:46.064474
- Title: Learning linear operators: Infinite-dimensional regression as a
well-behaved non-compact inverse problem
- Title(参考訳): 線形作用素の学習:不コンパクト逆問題としての無限次元回帰
- Authors: Mattes Mollenhauer and Nicole M\"ucke and T. J. Sullivan
- Abstract要約: 経験的観測から2つのヒルベルト空間の間の線型作用素を$theta$で学習する問題を考察する。
我々は、このゴールを$theta$の逆問題として、そのフォワード演算子が一般に非コンパクトである望ましくない特徴で再定義できることを示します。
- 参考スコア(独自算出の注目度): 0.3093890460224435
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of learning a linear operator $\theta$ between two
Hilbert spaces from empirical observations, which we interpret as least squares
regression in infinite dimensions. We show that this goal can be reformulated
as an inverse problem for $\theta$ with the undesirable feature that its
forward operator is generally non-compact (even if $\theta$ is assumed to be
compact or of $p$-Schatten class). However, we prove that, in terms of spectral
properties and regularisation theory, this inverse problem is equivalent to the
known compact inverse problem associated with scalar response regression. Our
framework allows for the elegant derivation of dimension-free rates for generic
learning algorithms under H\"older-type source conditions. The proofs rely on
the combination of techniques from kernel regression with recent results on
concentration of measure for sub-exponential Hilbertian random variables. The
obtained rates hold for a variety of practically-relevant scenarios in
functional regression as well as nonlinear regression with operator-valued
kernels and match those of classical kernel regression with scalar response.
- Abstract(参考訳): 経験的観測から2つのヒルベルト空間の間の線型作用素$\theta$を学習する問題を考察し、無限次元における最小二乗回帰と解釈する。
この目標は、そのフォワード作用素が一般に非コンパクトである(もし$\theta$がコンパクトあるいは$p$-Schattenクラスであると仮定されたとしても)望ましくない特徴を持つ$\theta$の逆問題として再定義できることを示す。
しかし、スペクトル特性と正規化理論の観点からすると、この逆問題はスカラー応答回帰に関連する既知のコンパクトな逆問題と同値であることが証明される。
本フレームワークは,h\"older型ソース条件下での汎用学習アルゴリズムの次元自由率のエレガントな導出を可能にする。
この証明は、カーネル回帰による手法と、部分指数ヒルベルト確率変数の測度集中に関する最近の結果の組み合わせに依存している。
得られたレートは、関数回帰や演算子値を持つカーネルとの非線形回帰、古典的なカーネル回帰とスカラー応答の様々な関係性を持つ。
関連論文リスト
- Highly Adaptive Ridge [84.38107748875144]
直交可積分な部分微分を持つ右連続函数のクラスにおいて,$n-2/3$自由次元L2収束率を達成する回帰法を提案する。
Harは、飽和ゼロオーダーテンソル積スプライン基底展開に基づいて、特定のデータ適応型カーネルで正確にカーネルリッジレグレッションを行う。
我々は、特に小さなデータセットに対する最先端アルゴリズムよりも経験的性能が優れていることを示す。
論文 参考訳(メタデータ) (2024-10-03T17:06:06Z) - Multivariate root-n-consistent smoothing parameter free matching estimators and estimators of inverse density weighted expectations [51.000851088730684]
我々は、パラメトリックな$sqrt n $-rateで収束する、最も近い隣人の新しい修正とマッチング推定器を開発する。
我々は,非パラメトリック関数推定器は含まないこと,特に標本サイズ依存パラメータの平滑化には依存していないことを強調する。
論文 参考訳(メタデータ) (2024-07-11T13:28:34Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - Towards Optimal Sobolev Norm Rates for the Vector-Valued Regularized Least-Squares Algorithm [30.08981916090924]
無限次元ベクトル値リッジ回帰の最初の最適速度を、$L$と仮説空間の間を補間するノルムの連続スケールに提示する。
これらの値は、ほとんどの場合最適であり、出力空間の次元に依存しないことを示す。
論文 参考訳(メタデータ) (2023-12-12T11:48:56Z) - Kernel-based off-policy estimation without overlap: Instance optimality
beyond semiparametric efficiency [53.90687548731265]
本研究では,観測データに基づいて線形関数を推定するための最適手順について検討する。
任意の凸および対称函数クラス $mathcalF$ に対して、平均二乗誤差で有界な非漸近局所ミニマックスを導出する。
論文 参考訳(メタデータ) (2023-01-16T02:57:37Z) - Dimension free ridge regression [10.434481202633458]
我々は、リッジ回帰のバイアスとばらつきの観点から、すなわちデータ上のリッジ回帰を再考し、等価なシーケンスモデルのバイアスとばらつきの観点から、リッジ回帰のバイアスとばらつきを考察する。
新しい応用として、定期的に変化するスペクトルを持つヒルベルト共変量に対して、完全に明示的で鋭い尾根回帰特性を得る。
論文 参考訳(メタデータ) (2022-10-16T16:01:05Z) - Experimental Design for Linear Functionals in Reproducing Kernel Hilbert
Spaces [102.08678737900541]
線形汎関数に対するバイアス認識設計のためのアルゴリズムを提供する。
準ガウス雑音下での固定および適応設計に対する漸近的でない信頼集合を導出する。
論文 参考訳(メタデータ) (2022-05-26T20:56:25Z) - Robust Kernel-based Distribution Regression [13.426195476348955]
2段階のサンプリングを含む分布回帰(DR)を研究し、ヒルベルト空間(RKHS)を再現するカーネル上での確率測度から実値応答への回帰を目指す。
2段階サンプリング問題に対するロバストロス関数$l_sigma$の導入により,新たなロバスト分布回帰(RDR)スキームを提案する。
論文 参考訳(メタデータ) (2021-04-21T17:03:46Z) - Online nonparametric regression with Sobolev kernels [99.12817345416846]
我々は、ソボレフ空間のクラス上の後悔の上限を$W_pbeta(mathcalX)$, $pgeq 2, beta>fracdp$ とする。
上界は minimax regret analysis で支えられ、$beta> fracd2$ または $p=infty$ の場合、これらの値は(本質的に)最適である。
論文 参考訳(メタデータ) (2021-02-06T15:05:14Z) - Early stopping and polynomial smoothing in regression with reproducing kernels [2.0411082897313984]
再生カーネルヒルベルト空間(RKHS)における反復学習アルゴリズムの早期停止問題について検討する。
本稿では,いわゆる最小不一致原理に基づく検証セットを使わずに早期停止を行うデータ駆動型ルールを提案する。
提案したルールは、異なるタイプのカーネル空間に対して、ミニマックス最適であることが証明されている。
論文 参考訳(メタデータ) (2020-07-14T05:27:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。