論文の概要: NeuroFabric: Identifying Ideal Topologies for Training A Priori Sparse
Networks
- arxiv url: http://arxiv.org/abs/2002.08339v1
- Date: Wed, 19 Feb 2020 18:29:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 13:18:08.728396
- Title: NeuroFabric: Identifying Ideal Topologies for Training A Priori Sparse
Networks
- Title(参考訳): NeuroFabric: プリミティブスパースネットワークのトレーニングのための理想的トポロジの同定
- Authors: Mihailo Isakov and Michel A. Kinsy
- Abstract要約: ディープニューラルネットワークの長いトレーニング時間は、機械学習研究のボトルネックである。
層内トポロジーの選択に関する理論的基礎を提供する。
類似したトポロジが達成可能な精度に大きな差があることがよく示される。
- 参考スコア(独自算出の注目度): 2.398608007786179
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Long training times of deep neural networks are a bottleneck in machine
learning research. The major impediment to fast training is the quadratic
growth of both memory and compute requirements of dense and convolutional
layers with respect to their information bandwidth. Recently, training `a
priori' sparse networks has been proposed as a method for allowing layers to
retain high information bandwidth, while keeping memory and compute low.
However, the choice of which sparse topology should be used in these networks
is unclear. In this work, we provide a theoretical foundation for the choice of
intra-layer topology. First, we derive a new sparse neural network
initialization scheme that allows us to explore the space of very deep sparse
networks. Next, we evaluate several topologies and show that seemingly similar
topologies can often have a large difference in attainable accuracy. To explain
these differences, we develop a data-free heuristic that can evaluate a
topology independently from the dataset the network will be trained on. We then
derive a set of requirements that make a good topology, and arrive at a single
topology that satisfies all of them.
- Abstract(参考訳): 深層ニューラルネットワークの長いトレーニング時間は、機械学習研究のボトルネックである。
高速トレーニングの主な障害は、情報帯域幅に関して、高密度層と畳み込み層のメモリと計算要求の2次成長である。
近年,メモリと計算量を低く保ちながら高い情報帯域幅を維持する手法として,'a priori'スパースネットワークのトレーニングが提案されている。
しかし、これらのネットワークでどの疎いトポロジを使うべきかは定かではない。
本研究では,層内トポロジーの選択に関する理論的基礎を提供する。
まず、非常に深いスパースネットワークの空間を探索できる新しいスパースニューラルネットワークの初期化スキームを導出する。
次に,いくつかのトポロジを評価し,類似したトポロジが達成可能な精度において大きな差をしばしば有することを示す。
これらの違いを説明するために,ネットワークがトレーニングするデータセットとは独立にトポロジを評価するデータフリーヒューリスティックを開発した。
次に、よいトポロジを作るための一連の要件を導き出し、それらすべてを満たす単一のトポロジに到達します。
関連論文リスト
- Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - Wide and Deep Neural Networks Achieve Optimality for Classification [23.738242876364865]
我々は、最適性を達成するニューラルネットワーク分類器の明示的な集合を同定し、構築する。
特に、最適性を実現するネットワーク構築に使用できる明示的なアクティベーション関数を提供する。
その結果,過度な深度が有害な回帰タスクとは対照的に,分類タスクにディープネットワークを使用することの利点が浮き彫りになった。
論文 参考訳(メタデータ) (2022-04-29T14:27:42Z) - Neural networks with linear threshold activations: structure and
algorithms [1.795561427808824]
クラス内で表現可能な関数を表現するのに、2つの隠れたレイヤが必要であることを示す。
また、クラス内の任意の関数を表すのに必要なニューラルネットワークのサイズについて、正確な境界を与える。
我々は,線形しきい値ネットワークと呼ばれるニューラルネットワークの新たなクラスを提案する。
論文 参考訳(メタデータ) (2021-11-15T22:33:52Z) - Learning Structures for Deep Neural Networks [99.8331363309895]
我々は,情報理論に根ざし,計算神経科学に発達した効率的な符号化原理を採用することを提案する。
スパース符号化は出力信号のエントロピーを効果的に最大化できることを示す。
公開画像分類データセットを用いた実験により,提案アルゴリズムでスクラッチから学習した構造を用いて,最も優れた専門家設計構造に匹敵する分類精度が得られることを示した。
論文 参考訳(メタデータ) (2021-05-27T12:27:24Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - An analytic theory of shallow networks dynamics for hinge loss
classification [14.323962459195771]
我々は、単純なタイプのニューラルネットワーク(分類タスクを実行するために訓練された単一の隠れ層)のトレーニングダイナミクスについて研究する。
我々はこの理論を線形分離可能なデータセットと線形ヒンジ損失のプロトタイプケースに特化する。
これにより、トレーニングダイナミクスの減速、リッチラーニングと遅延ラーニングのクロスオーバー、オーバーフィッティングといった、現代のネットワークに現れるいくつかの現象に対処することが可能になります。
論文 参考訳(メタデータ) (2020-06-19T16:25:29Z) - Finding trainable sparse networks through Neural Tangent Transfer [16.092248433189816]
深層学習において、特定のタスクでうまく機能する訓練可能なスパースネットワークは通常、ラベル依存プルーニング基準を用いて構築される。
本稿では,学習可能なスパースネットワークをラベルフリーで検出する手法であるNeural Tangent Transferを紹介する。
論文 参考訳(メタデータ) (2020-06-15T08:58:01Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。