論文の概要: A Rainbow in Deep Network Black Boxes
- arxiv url: http://arxiv.org/abs/2305.18512v2
- Date: Mon, 21 Oct 2024 05:59:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:13:57.872943
- Title: A Rainbow in Deep Network Black Boxes
- Title(参考訳): 深層ネットワークブラックボックスのレインボー
- Authors: Florentin Guth, Brice Ménard, Gaspar Rochette, Stéphane Mallat,
- Abstract要約: ディープラーニングにおける中心的な疑問は、ディープネットワークによって学習された機能を理解することである。
このようなランダムな特徴モデルの深い拡張を提供し、レインボーモデルと呼ぶ。
レインボーネットワークは無限幅極限において決定論的(階層的)カーネルを定義することを証明している。
- 参考スコア(独自算出の注目度): 12.130800774416757
- License:
- Abstract: A central question in deep learning is to understand the functions learned by deep networks. What is their approximation class? Do the learned weights and representations depend on initialization? Previous empirical work has evidenced that kernels defined by network activations are similar across initializations. For shallow networks, this has been theoretically studied with random feature models, but an extension to deep networks has remained elusive. Here, we provide a deep extension of such random feature models, which we call the rainbow model. We prove that rainbow networks define deterministic (hierarchical) kernels in the infinite-width limit. The resulting functions thus belong to a data-dependent RKHS which does not depend on the weight randomness. We also verify numerically our modeling assumptions on deep CNNs trained on image classification tasks, and show that the trained networks approximately satisfy the rainbow hypothesis. In particular, rainbow networks sampled from the corresponding random feature model achieve similar performance as the trained networks. Our results highlight the central role played by the covariances of network weights at each layer, which are observed to be low-rank as a result of feature learning.
- Abstract(参考訳): ディープラーニングにおける中心的な疑問は、ディープネットワークによって学習された機能を理解することである。
彼らの近似クラスは何ですか。
学習した重みと表現は初期化に依存するか?
以前の実証研究は、ネットワークアクティベーションによって定義されたカーネルが初期化全体にわたって似ていることを証明している。
浅層ネットワークについては、理論的にはランダムな特徴モデルを用いて研究されてきたが、深層ネットワークへの拡張はいまだ解明されていない。
ここでは、このようなランダムな特徴モデルの深い拡張を提供し、これをレインボーモデルと呼ぶ。
レインボーネットワークは無限幅極限において決定論的(階層的)カーネルを定義することを証明している。
結果として得られる関数は、重量ランダム性に依存しないデータ依存RKHSに属する。
また、画像分類タスクで訓練された深部CNNのモデリング仮定を数値的に検証し、トレーニングされたネットワークが虹彩仮説をほぼ満たしていることを示す。
特に、対応するランダム特徴モデルからサンプリングされたレインボーネットワークは、トレーニングされたネットワークと同等の性能を達成する。
その結果,各層におけるネットワーク重みの共分散による中心的役割が強調され,特徴学習の結果,低ランクであることが確認された。
関連論文リスト
- Approximation with Random Shallow ReLU Networks with Applications to Model Reference Adaptive Control [0.0]
ランダムに生成される重みとバイアスを持つReLUネットワークは、高い確率で$O(m-1/2)$の誤りを生じることを示す。
本稿では,モデル参照適応制御アプリケーションにおいて,必要な精度を近似するために,その結果をどのように利用できるかを示す。
論文 参考訳(メタデータ) (2024-03-25T19:39:17Z) - Asymptotics of Learning with Deep Structured (Random) Features [9.366617422860543]
機能マップの大規模なクラスでは、読み出しレイヤの学習に伴うテストエラーの厳密な特徴付けを提供しています。
いくつかのケースでは、勾配降下下で訓練された深部有限幅ニューラルネットワークによって学習された特徴写像をキャプチャできる。
論文 参考訳(メタデータ) (2024-02-21T18:35:27Z) - Improved Generalization of Weight Space Networks via Augmentations [56.571475005291035]
深度重み空間(DWS)における学習は新たな研究方向であり、2次元および3次元神経場(INRs, NeRFs)への応用
我々は、この過度な適合の理由を実証的に分析し、主要な理由は、DWSデータセットの多様性の欠如であることがわかった。
そこで本研究では,重み空間におけるデータ拡張戦略について検討し,重み空間に適応したMixUp法を提案する。
論文 参考訳(メタデータ) (2024-02-06T15:34:44Z) - Beyond IID weights: sparse and low-rank deep Neural Networks are also Gaussian Processes [3.686808512438363]
我々は Matthews らの証明を、より大きな初期重み分布のクラスに拡張する。
また,PSEUDO-IID分布を用いた完全連結・畳み込みネットワークは,その分散にほぼ等価であることを示す。
この結果を用いて、ニューラルネットワークの幅広いクラスに対してEdge-of-Chaosを識別し、トレーニングを強化するために臨界度で調整することができる。
論文 参考訳(メタデータ) (2023-10-25T12:38:36Z) - Computational Complexity of Learning Neural Networks: Smoothness and
Degeneracy [52.40331776572531]
ガウス入力分布下での学習深度3$ReLUネットワークはスムーズな解析フレームワークにおいても困難であることを示す。
この結果は, 局所擬似乱数発生器の存在についてよく研究されている。
論文 参考訳(メタデータ) (2023-02-15T02:00:26Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - Bayesian Interpolation with Deep Linear Networks [92.1721532941863]
ニューラルネットワークの深さ、幅、データセットサイズがモデル品質にどう影響するかを特徴付けることは、ディープラーニング理論における中心的な問題である。
線形ネットワークが無限深度で証明可能な最適予測を行うことを示す。
また、データに依存しない先行法により、広い線形ネットワークにおけるベイズ模型の証拠は無限の深さで最大化されることを示す。
論文 参考訳(メタデータ) (2022-12-29T20:57:46Z) - The Onset of Variance-Limited Behavior for Networks in the Lazy and Rich
Regimes [75.59720049837459]
無限幅挙動からこの分散制限状態への遷移をサンプルサイズ$P$とネットワーク幅$N$の関数として検討する。
有限サイズ効果は、ReLUネットワークによる回帰のために、$P* sim sqrtN$の順序で非常に小さなデータセットに関係があることが分かる。
論文 参考訳(メタデータ) (2022-12-23T04:48:04Z) - Spectral Bias Outside the Training Set for Deep Networks in the Kernel
Regime [0.0]
ネットワークは、トレーニングセットだけでなく、入力空間全体にわたって、ニューラルネットワークの上位固有関数を学習するために偏りがあることが示される。
このバイアスはモデルアーキテクチャと入力分布のみに依存する。
我々は,漁業情報マトリックスの低効率な位置からの局所的な容量制御は理論的には未熟である,と結論づける。
論文 参考訳(メタデータ) (2022-06-06T22:09:15Z) - On the Effective Number of Linear Regions in Shallow Univariate ReLU
Networks: Convergence Guarantees and Implicit Bias [50.84569563188485]
我々は、ラベルが$r$のニューロンを持つターゲットネットワークの符号によって決定されるとき、勾配流が方向収束することを示す。
我々の結果は、標本サイズによらず、幅が$tildemathcalO(r)$である、緩やかなオーバーパラメータ化をすでに維持しているかもしれない。
論文 参考訳(メタデータ) (2022-05-18T16:57:10Z) - Kalman Bayesian Neural Networks for Closed-form Online Learning [5.220940151628734]
閉形式ベイズ推論によるBNN学習のための新しい手法を提案する。
出力の予測分布の計算と重み分布の更新をベイズフィルタおよび平滑化問題として扱う。
これにより、勾配降下のないシーケンシャル/オンライン方式でネットワークパラメータをトレーニングするためのクローズドフォーム表現が可能になる。
論文 参考訳(メタデータ) (2021-10-03T07:29:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。