論文の概要: Deterministic equivalent and error universality of deep random features
learning
- arxiv url: http://arxiv.org/abs/2302.00401v1
- Date: Wed, 1 Feb 2023 12:37:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-02 13:08:16.187582
- Title: Deterministic equivalent and error universality of deep random features
learning
- Title(参考訳): 深層ランダム特徴学習における決定論的等価性と誤差普遍性
- Authors: Dominik Schr\"oder, Hugo Cui, Daniil Dmitriev, Bruno Loureiro
- Abstract要約: この問題は、広く研究されているランダム特徴モデルのより深いアーキテクチャへの自然な一般化と見なすことができる。
まず,学習者と対象ネットワークが同一の中間層を共有した普遍性リッジ設定において,テストエラーの普遍性を証明し,そのシャープな式を提供する。
第二に、任意の凸損失と一般的な学習/ターゲットアーキテクチャのより一般的な設定において、テストエラーの普遍性を予想する。
- 参考スコア(独自算出の注目度): 4.8461049669050915
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This manuscript considers the problem of learning a random Gaussian network
function using a fully connected network with frozen intermediate layers and
trainable readout layer. This problem can be seen as a natural generalization
of the widely studied random features model to deeper architectures. First, we
prove Gaussian universality of the test error in a ridge regression setting
where the learner and target networks share the same intermediate layers, and
provide a sharp asymptotic formula for it. Establishing this result requires
proving a deterministic equivalent for traces of the deep random features
sample covariance matrices which can be of independent interest. Second, we
conjecture the asymptotic Gaussian universality of the test error in the more
general setting of arbitrary convex losses and generic learner/target
architectures. We provide extensive numerical evidence for this conjecture,
which requires the derivation of closed-form expressions for the layer-wise
post-activation population covariances. In light of our results, we investigate
the interplay between architecture design and implicit regularization.
- Abstract(参考訳): 本書では, 凍結中間層と学習可能な読み出し層を備えた完全連結ネットワークを用いて, ランダムガウスネットワーク関数を学習する問題を考察する。
この問題は、広く研究されているランダム特徴モデルのより深いアーキテクチャへの自然な一般化と見なすことができる。
まず,学習者と対象ネットワークが同一の中間層を共有するリッジ回帰設定において,テストエラーのガウス的普遍性を証明し,それに対する鋭い漸近式を提供する。
この結果を確立するためには、独立な興味を持つことのできるサンプル共分散行列の深いランダムな特徴のトレースに対する決定論的等価性を証明する必要がある。
第二に、任意の凸損失と一般的な学習/ターゲットアーキテクチャのより一般的な設定において、テストエラーの漸近的ガウス普遍性を予想する。
この予想に対する広範な数値的な証拠を提供するが、これは階層的なポストアクティベーション集団の共分散に対する閉形式表現の導出を必要とする。
その結果,アーキテクチャ設計と暗黙の正規化の相互作用について検討した。
関連論文リスト
- Scaling and renormalization in high-dimensional regression [72.59731158970894]
本稿では,様々な高次元リッジ回帰モデルの訓練および一般化性能の簡潔な導出について述べる。
本稿では,物理と深層学習の背景を持つ読者を対象に,これらのトピックに関する最近の研究成果の紹介とレビューを行う。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - Learning a Gaussian Mixture for Sparsity Regularization in Inverse
Problems [2.375943263571389]
逆問題では、スパーシティ事前の組み込みは、解に対する正則化効果をもたらす。
本稿では,ガウスの混合として事前に定式化された確率的疎性について提案する。
我々は、このネットワークのパラメータを推定するために、教師なしのトレーニング戦略と教師なしのトレーニング戦略をそれぞれ導入した。
論文 参考訳(メタデータ) (2024-01-29T22:52:57Z) - Structured Radial Basis Function Network: Modelling Diversity for
Multiple Hypotheses Prediction [51.82628081279621]
多重モード回帰は非定常過程の予測や分布の複雑な混合において重要である。
構造的放射基底関数ネットワークは回帰問題に対する複数の仮説予測器のアンサンブルとして提示される。
この構造モデルにより, このテッセルレーションを効率よく補間し, 複数の仮説対象分布を近似することが可能であることが証明された。
論文 参考訳(メタデータ) (2023-09-02T01:27:53Z) - Learning Linear Causal Representations from Interventions under General
Nonlinear Mixing [52.66151568785088]
介入対象にアクセスできることなく、未知の単一ノード介入を考慮し、強い識別可能性を示す。
これは、ディープニューラルネットワークの埋め込みに対する非ペアの介入による因果識別性の最初の例である。
論文 参考訳(メタデータ) (2023-06-04T02:32:12Z) - Learning and generalization of one-hidden-layer neural networks, going
beyond standard Gaussian data [14.379261299138147]
本稿では,入力特徴がガウス混合モデルに従えば,一層ニューラルネットワークの収束と反復を解析する。
本論文は,入力分布がサンプルに与える影響と学習率に与える影響を初めて特徴付ける。
論文 参考訳(メタデータ) (2022-07-07T23:27:44Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - Predicting Unreliable Predictions by Shattering a Neural Network [145.3823991041987]
線形ニューラルネットワークは、サブファンクションに分割することができる。
サブファンクションは、独自のアクティベーションパターン、ドメイン、経験的エラーを持っている。
完全なネットワークに対する経験的エラーは、サブファンクションに対する期待として記述できる。
論文 参考訳(メタデータ) (2021-06-15T18:34:41Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Non-Euclidean Universal Approximation [4.18804572788063]
ニューラルネットワークの入力層と出力層の修正は、多くの場合、最も実践的な学習タスクの特異性を満たすために必要である。
アーキテクチャの連続関数をコンパクトな上で一様に近似する能力を保った特徴写像と読み出し写像を記述した一般的な条件を示す。
論文 参考訳(メタデータ) (2020-06-03T15:38:57Z) - Generalisation error in learning with random features and the hidden
manifold model [23.71637173968353]
合成データセットの一般線形回帰と分類について検討した。
我々は,高次元構造を考察し,統計物理学からのレプリカ法を用いる。
閾値をピークとしたロジスティック回帰のためのいわゆる二重降下挙動を得る方法を示す。
隠れ多様体モデルにより生成されたデータにおいて相関関係が果たす役割について論じる。
論文 参考訳(メタデータ) (2020-02-21T14:49:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。