論文の概要: Why Neural Networks Work
- arxiv url: http://arxiv.org/abs/2211.14632v1
- Date: Sat, 26 Nov 2022 18:15:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 14:26:26.610348
- Title: Why Neural Networks Work
- Title(参考訳): ニューラルネットワークが機能する理由
- Authors: Sayandev Mukherjee, Bernardo A. Huberman
- Abstract要約: 完全接続型フィードフォワードニューラルネットワーク(FCNN)の多くの特性は、1対の操作の解析から説明可能であると論じる。
文献で論じられた現象がいかに拡大・スパーシフィケーションが説明できるかを示す。
- 参考スコア(独自算出の注目度): 0.32228025627337864
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We argue that many properties of fully-connected feedforward neural networks
(FCNNs), also called multi-layer perceptrons (MLPs), are explainable from the
analysis of a single pair of operations, namely a random projection into a
higher-dimensional space than the input, followed by a sparsification
operation. For convenience, we call this pair of successive operations
expand-and-sparsify following the terminology of Dasgupta. We show how
expand-and-sparsify can explain the observed phenomena that have been discussed
in the literature, such as the so-called Lottery Ticket Hypothesis, the
surprisingly good performance of randomly-initialized untrained neural
networks, the efficacy of Dropout in training and most importantly, the
mysterious generalization ability of overparameterized models, first
highlighted by Zhang et al. and subsequently identified even in non-neural
network models by Belkin et al.
- Abstract(参考訳): 多層パーセプトロン(multi-layer perceptrons, mlps)とも呼ばれる完全結合型フィードフォワードニューラルネットワーク(fcnns)の多くの特性は、入力よりも高次元空間へのランダム射影とスパーシフィケーション演算の1対の分析から説明可能である。
便宜上、dasguptaの用語に従って、この連続した操作のペアをexpand-sparsifyと呼びます。
本稿では,いわゆるロッテリ・チェケット仮説,ランダム初期化未学習ニューラルネットワークの驚くほど優れた性能,トレーニングにおけるDropoutの有効性,特にZhangらによって最初に強調された過度パラメータ化モデルの謎的な一般化能力,そしてその後ベルキンらによる非神経ネットワークモデルにおいても同定されたような文献で議論された現象を,いかに拡大・スパーシフィケートが説明できるかを示す。
関連論文リスト
- Polynomially Over-Parameterized Convolutional Neural Networks Contain
Structured Strong Winning Lottery Tickets [4.020829863982153]
十分に小さなネットワークを近似できる構造化ニューラルワークの存在を実証する。
この結果は、Strong Lottery Ticket仮説の周りの最初の部分指数境界を与える。
論文 参考訳(メタデータ) (2023-11-16T12:38:45Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Generalization and Estimation Error Bounds for Model-based Neural
Networks [78.88759757988761]
スパースリカバリのためのモデルベースネットワークの一般化能力は、通常のReLUネットワークよりも優れていることを示す。
我々は,高一般化を保証したモデルベースネットワークの構築を可能にする実用的な設計規則を導出する。
論文 参考訳(メタデータ) (2023-04-19T16:39:44Z) - On the limits of neural network explainability via descrambling [2.5554069583567487]
隠蔽層プレアクティベーションの主成分は, 層重みの最適説明器やデクランブラーとして特徴付けられることを示す。
典型的なディープラーニングの文脈では、これらのデクランブラーは多様で興味深い形式をとっています。
論文 参考訳(メタデータ) (2023-01-18T23:16:53Z) - Consistency of Neural Networks with Regularization [0.0]
本稿では,ニューラルネットワークの規則化による一般的な枠組みを提案し,その一貫性を実証する。
双曲関数(Tanh)と整形線形単位(ReLU)の2種類の活性化関数が検討されている。
論文 参考訳(メタデータ) (2022-06-22T23:33:39Z) - PAC-Bayesian Learning of Aggregated Binary Activated Neural Networks
with Probabilities over Representations [2.047424180164312]
本研究では,確率論的ニューラルネットワークの予測器としての期待値について検討し,実数値重みによる正規分布を持つ二元活性化ニューラルネットワークの集約に着目した。
我々は、動的プログラミングアプローチのおかげで、深いが狭いニューラルネットワークに対して、正確な計算が引き続き実行可能であることを示す。
論文 参考訳(メタデータ) (2021-10-28T14:11:07Z) - Why Lottery Ticket Wins? A Theoretical Perspective of Sample Complexity
on Pruned Neural Networks [79.74580058178594]
目的関数の幾何学的構造を解析することにより、刈り取られたニューラルネットワークを訓練する性能を解析する。
本稿では,ニューラルネットワークモデルがプルーニングされるにつれて,一般化が保証された望ましいモデル近傍の凸領域が大きくなることを示す。
論文 参考訳(メタデータ) (2021-10-12T01:11:07Z) - Learning and Generalization in RNNs [11.107204912245841]
単純なリカレントニューラルネットワークがシーケンスの関数を学習できることを実証する。
新しいアイデアは、我々の証明でRNNの隠れた状態から情報を抽出することを可能にする。
論文 参考訳(メタデータ) (2021-05-31T18:27:51Z) - How Neural Networks Extrapolate: From Feedforward to Graph Neural
Networks [80.55378250013496]
勾配勾配降下法によりトレーニングされたニューラルネットワークが、トレーニング分布の支持の外で学んだことを外挿する方法について検討する。
グラフニューラルネットワーク(GNN)は、より複雑なタスクでいくつかの成功を収めている。
論文 参考訳(メタデータ) (2020-09-24T17:48:59Z) - Phase Detection with Neural Networks: Interpreting the Black Box [58.720142291102135]
ニューラルネットワーク(NN)は通常、予測の背後にある推論に対する洞察を妨げます。
本研究では,1次元拡張スピンレスFermi-Hubbardモデルの位相を半充足で予測するために,NNのブラックボックスをいかに影響関数が解き放つかを示す。
論文 参考訳(メタデータ) (2020-04-09T17:45:45Z) - Understanding Generalization in Deep Learning via Tensor Methods [53.808840694241]
圧縮の観点から,ネットワークアーキテクチャと一般化可能性の関係について理解を深める。
本稿では、ニューラルネットワークの圧縮性と一般化性を強く特徴付ける、直感的で、データ依存的で、測定が容易な一連の特性を提案する。
論文 参考訳(メタデータ) (2020-01-14T22:26:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。