論文の概要: Interpolation and Learning with Scale Dependent Kernels
- arxiv url: http://arxiv.org/abs/2006.09984v3
- Date: Wed, 10 Nov 2021 10:48:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 20:27:06.261142
- Title: Interpolation and Learning with Scale Dependent Kernels
- Title(参考訳): スケール依存カーネルによる補間と学習
- Authors: Nicol\`o Pagliana, Alessandro Rudi, Ernesto De Vito, Lorenzo Rosasco
- Abstract要約: 非パラメトリックリッジレス最小二乗の学習特性について検討する。
スケール依存カーネルで定義される推定器の一般的な場合を考える。
- 参考スコア(独自算出の注目度): 91.41836461193488
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the learning properties of nonparametric ridge-less least squares.
In particular, we consider the common case of estimators defined by scale
dependent kernels, and focus on the role of the scale. These estimators
interpolate the data and the scale can be shown to control their stability
through the condition number. Our analysis shows that are different regimes
depending on the interplay between the sample size, its dimensions, and the
smoothness of the problem. Indeed, when the sample size is less than
exponential in the data dimension, then the scale can be chosen so that the
learning error decreases. As the sample size becomes larger, the overall error
stop decreasing but interestingly the scale can be chosen in such a way that
the variance due to noise remains bounded. Our analysis combines, probabilistic
results with a number of analytic techniques from interpolation theory.
- Abstract(参考訳): 非パラメトリックリッジレス最小二乗の学習特性について検討する。
特に、スケール依存カーネルによって定義される推定子の一般的なケースを検討し、スケールの役割に焦点を当てる。
これらの推定器はデータを補間し、そのスケールは条件数を通じてその安定性を制御することができる。
分析の結果、サンプルサイズ、寸法、問題の滑らかさの相互作用によって異なるレジームであることが判明した。
実際、データ次元においてサンプルサイズが指数関数以下であれば、学習誤差が減少するようにスケールを選択することができる。
サンプルサイズが大きくなると、全体のエラーが減少するが、興味深いことに、ノイズによるばらつきが境界のままであるような方法でスケールを選択することができる。
我々の分析は、確率的結果と補間理論からの多くの解析技術を組み合わせる。
関連論文リスト
- Learning causal graphs using variable grouping according to ancestral relationship [7.126300090990439]
サンプルサイズが変数数に対して小さい場合には,既存手法を用いた因果グラフの推定精度が低下する。
サンプルサイズが変数の数より小さい場合、いくつかのメソッドは実現不可能である。
これらの問題を回避すべく、ある研究者は分割・対数アプローチを用いた因果構造学習アルゴリズムを提案した。
論文 参考訳(メタデータ) (2024-03-21T04:42:04Z) - Estimation of mutual information via quantum kernel method [0.0]
相互情報(MI)の推定は,複数の確率変数間の関係を非線形相関で調査する上で重要な役割を担っている。
本稿では,量子カーネルを用いた相互情報推定手法を提案する。
論文 参考訳(メタデータ) (2023-10-19T00:53:16Z) - Gradient-Based Feature Learning under Structured Data [57.76552698981579]
異方性設定では、一般的に使用される球面勾配力学は真の方向を回復できないことがある。
バッチ正規化を連想させる適切な重み正規化は、この問題を軽減することができることを示す。
特に、スパイクモデルの下では、勾配に基づくトレーニングのサンプルの複雑さは情報指数とは独立にできる。
論文 参考訳(メタデータ) (2023-09-07T16:55:50Z) - Benign Overfitting in Time Series Linear Model with
Over-Parameterization [5.68558935178946]
複数の依存型に基づく推定器の過大なリスクの理論を考案する。
短期記憶プロセスにおけるリスクの収束率は、独立データの場合と同一であることを示す。
論文 参考訳(メタデータ) (2022-04-18T15:26:58Z) - Equivariance Allows Handling Multiple Nuisance Variables When Analyzing
Pooled Neuroimaging Datasets [53.34152466646884]
本稿では,構造空間上でインスタンス化された同変表現学習における最近の結果と,因果推論における古典的結果の簡易な利用が,いかに効果的に実現されたかを示す。
いくつかの仮定の下で、我々のモデルが複数のニュアンス変数を扱えることを実証し、そうでなければサンプルの大部分を取り除く必要のあるシナリオにおいて、プールされた科学データセットの分析を可能にする。
論文 参考訳(メタデータ) (2022-03-29T04:54:06Z) - Efficient Causal Inference from Combined Observational and
Interventional Data through Causal Reductions [68.6505592770171]
因果効果を推定する際の主な課題の1つである。
そこで本研究では,任意の数の高次元潜入共創者を置き換える新たな因果還元法を提案する。
パラメータ化縮小モデルを観測データと介入データから共同で推定する学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-08T14:29:07Z) - Multinomial Sampling for Hierarchical Change-Point Detection [0.0]
本稿では,検出率を向上し,遅延を低減する多項サンプリング手法を提案する。
実験の結果, 基準法よりも優れた結果が得られ, また, 人間の行動研究を指向した事例も提示した。
論文 参考訳(メタデータ) (2020-07-24T09:18:17Z) - An Investigation of Why Overparameterization Exacerbates Spurious
Correlations [98.3066727301239]
この動作を駆動するトレーニングデータの2つの重要な特性を特定します。
モデルの"記憶"に対する帰納的バイアスが,パラメータ化の超過を損なう可能性を示す。
論文 参考訳(メタデータ) (2020-05-09T01:59:13Z) - Compressing Large Sample Data for Discriminant Analysis [78.12073412066698]
判別分析フレームワーク内での大きなサンプルサイズに起因する計算問題を考察する。
線形および二次判別分析のためのトレーニングサンプル数を削減するための新しい圧縮手法を提案する。
論文 参考訳(メタデータ) (2020-05-08T05:09:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。