論文の概要: Spatially heterogeneous learning by a deep student machine
- arxiv url: http://arxiv.org/abs/2302.07419v1
- Date: Wed, 15 Feb 2023 01:09:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-16 15:59:55.829091
- Title: Spatially heterogeneous learning by a deep student machine
- Title(参考訳): 深層学習機械による空間的不均一学習
- Authors: Hajime Yoshino
- Abstract要約: 深度$N$と深度$L$の深度ニューラルネットワークによる教師あり学習について検討した。
我々は、$M$の次元インプット/アウトプット関係を正確に再現する学生マシンの集合を考える。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the spectacular successes, deep neural networks (DNN) with a huge
number of adjustable parameters remain largely black boxes. To shed light on
the hidden layers of DNN, we study supervised learning by a DNN of width $N$
and depth $L$ consisting of perceptrons with $c$ inputs by a statistical
mechanics approach called the teacher-student setting. We consider an ensemble
of student machines that exactly reproduce $M$ sets of $N$ dimensional
input/output relations provided by a teacher machine. We analyze the ensemble
theoretically using a replica method (H. Yoshino (2020)) and numerically
performing greedy Monte Carlo simulations. The replica theory which works on
high dimensional data $N \gg 1$ becomes exact in 'dense limit' $N \gg c \gg 1$
and $M \gg 1$ with fixed $\alpha=M/c$. Both the theory and the simulation
suggest learning by the DNN is quite heterogeneous in the network space:
configurations of the machines are more correlated within the layers closer to
the input/output boundaries while the central region remains much less
correlated due to over-parametrization. Deep enough systems relax faster thanks
to the less correlated central region. Remarkably both the theory and
simulation suggest generalization-ability of the student machines does not
vanish even in the deep limit $L \gg 1$ where the system becomes strongly
over-parametrized. We also consider the impact of effective dimension $D(\leq
N)$ of data by incorporating the hidden manifold model (S. Goldt et al (2020))
into our model. The replica theory implies that the loop corrections to the
dense limit, which reflect correlations between different nodes in the network,
become enhanced by either decreasing the width $\ N$ or decreasing the
effective dimension $D$ of the data. Simulation suggests both leads to
significant improvements in generalization-ability.
- Abstract(参考訳): 素晴らしい成功にもかかわらず、膨大な調整可能なパラメータを持つディープニューラルネットワーク(DNN)はほとんどブラックボックスのままである。
DNNの隠蔽層に光を当てるために,教師学生設定と呼ばれる統計力学手法を用いて,DNNの幅$N$と深さ$L$のパーセプトロンと$c$入力からなる教師学習について検討した。
我々は,教師機械が提供した3次元インプット/アウトプット関係の$M$集合を正確に再現する学生機械の集合を考える。
我々はレプリカ法(H)を用いて理論的にアンサンブルを解析した。
吉野(2020年)および数値計算によるモンテカルロシミュレーション
高次元データに作用するレプリカ理論 $N \gg 1$ は 'dense limit' $N \gg c \gg 1$ および $M \gg 1$ において、固定$\alpha=M/c$ で完全となる。
この理論とシミュレーションは、dnnによる学習がネットワーク空間では非常に異質であることを示唆している: マシンの構成は入出力境界に近い層内でより相関しており、中央領域は過度なパラメータ化のために相関が小さい。
中央領域の相関が低いため、システムはより速くリラックスする。
この理論とシミュレーションの両方が、システムの過度なパラメータ化が強まるような深い極限$L \gg 1$であっても、学生機械の一般化可能性は消滅しないことを示唆している。
また,データの有効次元 $d(\leq n)$ の影響を隠れ多様体モデル (s) を用いて検討する。
Goldt et al (2020) をモデルに組み込んだ。
レプリカ理論は、ネットワーク内の異なるノード間の相関を反映する密集限界へのループ補正が、幅$\n$を減少させるか、データの有効次元$d$を減少させることによって強化されることを意味する。
シミュレーションは両方とも一般化可能性を大幅に改善することを示唆している。
関連論文リスト
- Effective Minkowski Dimension of Deep Nonparametric Regression: Function
Approximation and Statistical Theories [70.90012822736988]
ディープ非パラメトリック回帰に関する既存の理論は、入力データが低次元多様体上にある場合、ディープニューラルネットワークは本質的なデータ構造に適応できることを示した。
本稿では,$mathcalS$で表される$mathbbRd$のサブセットに入力データが集中するという緩和された仮定を導入する。
論文 参考訳(メタデータ) (2023-06-26T17:13:31Z) - The Onset of Variance-Limited Behavior for Networks in the Lazy and Rich
Regimes [75.59720049837459]
無限幅挙動からこの分散制限状態への遷移をサンプルサイズ$P$とネットワーク幅$N$の関数として検討する。
有限サイズ効果は、ReLUネットワークによる回帰のために、$P* sim sqrtN$の順序で非常に小さなデータセットに関係があることが分かる。
論文 参考訳(メタデータ) (2022-12-23T04:48:04Z) - Neural Networks Efficiently Learn Low-Dimensional Representations with
SGD [22.703825902761405]
SGDで訓練されたReLU NNは、主方向を回復することで、$y=f(langleboldsymbolu,boldsymbolxrangle) + epsilon$という形の単一インデックスターゲットを学習できることを示す。
また、SGDによる近似低ランク構造を用いて、NNに対して圧縮保証を提供する。
論文 参考訳(メタデータ) (2022-09-29T15:29:10Z) - Understanding Deep Neural Function Approximation in Reinforcement
Learning via $\epsilon$-Greedy Exploration [53.90873926758026]
本稿では、強化学習(RL)における深部神経機能近似の理論的研究について述べる。
我々は、Besov(およびBarron)関数空間によって与えられるディープ(および2層)ニューラルネットワークによる$epsilon$-greedy探索により、バリューベースのアルゴリズムに焦点を当てる。
我々の解析は、ある平均測度$mu$の上の$L2(mathrmdmu)$-integrable空間における時間差誤差を再構成し、非イド設定の下で一般化問題に変換する。
論文 参考訳(メタデータ) (2022-09-15T15:42:47Z) - Feature Learning in $L_{2}$-regularized DNNs: Attraction/Repulsion and
Sparsity [9.077741848403791]
パラメータの損失は、トレーニングセットの層単位でのアクティベーション$Z_ell$の損失に再計算可能であることを示す。
この改革は、機能学習の背景にあるダイナミクスを明らかにします。
論文 参考訳(メタデータ) (2022-05-31T14:10:15Z) - Lessons from $O(N)$ models in one dimension [0.0]
1つの時空次元(通常の量子力学)における$O(N)$モデルに関連する様々なトピックが考慮される。
その焦点は、より単純な文脈で量子場理論の手法を教育的に提示することである。
論文 参考訳(メタデータ) (2021-09-14T11:36:30Z) - Locality defeats the curse of dimensionality in convolutional
teacher-student scenarios [69.2027612631023]
学習曲線指数$beta$を決定する上で,局所性が重要であることを示す。
我々は、自然の仮定を用いて、トレーニングセットのサイズに応じて減少するリッジでカーネルレグレッションを実行すると、リッジレスの場合と同じような学習曲線指数が得られることを証明して結論付けた。
論文 参考訳(メタデータ) (2021-06-16T08:27:31Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - Hardness of Learning Halfspaces with Massart Noise [56.98280399449707]
我々は、マッサート(有界)ノイズの存在下でPAC学習のハーフスペースの複雑さを研究します。
情報理論上最適なエラーとSQアルゴリズムで達成できる最高のエラーとの間に指数関数的なギャップがあることを示した。
論文 参考訳(メタデータ) (2020-12-17T16:43:11Z) - Towards Deep Learning Models Resistant to Large Perturbations [0.0]
敵対的堅牢性は、機械学習アルゴリズムの必須特性であることが証明されている。
とよばれるアルゴリズムは、大きくても合理的で摂動のマグニチュードが与えられたディープニューラルネットワークのトレーニングに失敗することを示した。
論文 参考訳(メタデータ) (2020-03-30T12:03:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。