論文の概要: Kernel Methods and Multi-layer Perceptrons Learn Linear Models in High
Dimensions
- arxiv url: http://arxiv.org/abs/2201.08082v1
- Date: Thu, 20 Jan 2022 09:35:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-21 13:26:46.617344
- Title: Kernel Methods and Multi-layer Perceptrons Learn Linear Models in High
Dimensions
- Title(参考訳): カーネル法と多層受容器による高次元線形モデルの学習
- Authors: Mojtaba Sahraee-Ardakan, Melikasadat Emami, Parthe Pandit, Sundeep
Rangan, Alyson K. Fletcher
- Abstract要約: 完全連結ネットワークのニューラルカーネルを含む多数のカーネルに対して、カーネル法は特定の高次元状態における線形モデルと同等にしか機能しないことを示す。
高次元解析には、独立な特徴以外のデータに対するより複雑なモデルが必要である。
- 参考スコア(独自算出の注目度): 25.635225717360466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Empirical observation of high dimensional phenomena, such as the double
descent behaviour, has attracted a lot of interest in understanding classical
techniques such as kernel methods, and their implications to explain
generalization properties of neural networks. Many recent works analyze such
models in a certain high-dimensional regime where the covariates are
independent and the number of samples and the number of covariates grow at a
fixed ratio (i.e. proportional asymptotics). In this work we show that for a
large class of kernels, including the neural tangent kernel of fully connected
networks, kernel methods can only perform as well as linear models in this
regime. More surprisingly, when the data is generated by a kernel model where
the relationship between input and the response could be very nonlinear, we
show that linear models are in fact optimal, i.e. linear models achieve the
minimum risk among all models, linear or nonlinear. These results suggest that
more complex models for the data other than independent features are needed for
high-dimensional analysis.
- Abstract(参考訳): 二重降下挙動のような高次元現象の実証観測は、カーネル法のような古典的手法の理解や、ニューラルネットワークの一般化特性の説明に多くの関心を集めている。
多くの最近の研究は、共変数が独立であり、サンプルの数と共変数の数が一定の比(比例漸近)で増加するある高次元状態においてそのようなモデルを分析する。
本研究は,完全連結ネットワークの神経接核を含む多数のカーネルに対して,カーネル手法が線形モデルと同様にのみ実行可能であることを示す。
より驚くべきことに、入力と応答の関係が非常に非線形であるカーネルモデルによってデータが生成されるとき、リニアモデルは実際には最適であり、リニアモデルはリニアモデルと非線形モデルの間の最小リスクを達成する。
これらの結果は、高次元解析には独立性以外のデータに対するより複雑なモデルが必要であることを示唆している。
関連論文リスト
- Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - Gradient flow in the gaussian covariate model: exact solution of
learning curves and multiple descent structures [14.578025146641806]
一般化曲線の全時間進化を完全かつ統一的に解析する。
この理論予測は,現実的なデータセットよりも勾配降下によって得られる学習曲線と適切に一致していることを示す。
論文 参考訳(メタデータ) (2022-12-13T17:39:18Z) - Hessian Eigenspectra of More Realistic Nonlinear Models [73.31363313577941]
私たちは、非線形モデルの広いファミリーのためのヘッセン固有スペクトルの言語的特徴付けを行います。
我々の分析は、より複雑な機械学習モデルで観察される多くの顕著な特徴の起源を特定するために一歩前進する。
論文 参考訳(メタデータ) (2021-03-02T06:59:52Z) - The Neural Tangent Kernel in High Dimensions: Triple Descent and a
Multi-Scale Theory of Generalization [34.235007566913396]
現代のディープラーニングモデルでは、トレーニングデータに適合するために必要なパラメータよりもはるかに多くのパラメータが採用されている。
この予期せぬ振る舞いを記述するための新たなパラダイムは、エンファンダブル降下曲線(英語版)である。
本稿では,勾配降下を伴う広帯域ニューラルネットワークの挙動を特徴付けるニューラル・タンジェント・カーネルを用いた一般化の高精度な高次元解析を行う。
論文 参考訳(メタデータ) (2020-08-15T20:55:40Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Bayesian Sparse Factor Analysis with Kernelized Observations [67.60224656603823]
多視点問題は潜在変数モデルに直面することができる。
高次元問題と非線形問題は伝統的にカーネルメソッドによって扱われる。
両アプローチを単一モデルにマージすることを提案する。
論文 参考訳(メタデータ) (2020-06-01T14:25:38Z) - Kernel and Rich Regimes in Overparametrized Models [69.40899443842443]
過度にパラメータ化された多層ネットワーク上の勾配勾配は、RKHSノルムではないリッチな暗黙バイアスを誘発できることを示す。
また、より複雑な行列分解モデルと多層非線形ネットワークに対して、この遷移を実証的に示す。
論文 参考訳(メタデータ) (2020-02-20T15:43:02Z) - Learning Bijective Feature Maps for Linear ICA [73.85904548374575]
画像データに適した既存の確率的深層生成モデル (DGM) は, 非線形ICAタスクでは不十分であることを示す。
そこで本研究では,2次元特徴写像と線形ICAモデルを組み合わせることで,高次元データに対する解釈可能な潜在構造を学習するDGMを提案する。
画像上のフローベースモデルや線形ICA、変分オートエンコーダよりも、高速に収束し、訓練が容易なモデルを作成し、教師なしの潜在因子発見を実現する。
論文 参考訳(メタデータ) (2020-02-18T17:58:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。