論文の概要: Why Random Pruning Is All We Need to Start Sparse
- arxiv url: http://arxiv.org/abs/2210.02412v2
- Date: Wed, 31 May 2023 15:51:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 04:21:20.252495
- Title: Why Random Pruning Is All We Need to Start Sparse
- Title(参考訳): なぜランダム・プルーニングはスパースから始める必要があるのか
- Authors: Advait Gadhikar, Sohom Mukherjee and Rebekka Burkholz
- Abstract要約: ランダムマスクは驚くほど効果的なスパースニューラルネットワークモデルを定義する。
スパサーネットワークは、密集したアーキテクチャや最先端の宝くじ改札アルゴリズムと競合できることを示す。
- 参考スコア(独自算出の注目度): 7.648170881733381
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Random masks define surprisingly effective sparse neural network models, as
has been shown empirically. The resulting sparse networks can often compete
with dense architectures and state-of-the-art lottery ticket pruning
algorithms, even though they do not rely on computationally expensive
prune-train iterations and can be drawn initially without significant
computational overhead. We offer a theoretical explanation of how random masks
can approximate arbitrary target networks if they are wider by a logarithmic
factor in the inverse sparsity $1 / \log(1/\text{sparsity})$. This
overparameterization factor is necessary at least for 3-layer random networks,
which elucidates the observed degrading performance of random networks at
higher sparsity. At moderate to high sparsity levels, however, our results
imply that sparser networks are contained within random source networks so that
any dense-to-sparse training scheme can be turned into a computationally more
efficient sparse-to-sparse one by constraining the search to a fixed random
mask. We demonstrate the feasibility of this approach in experiments for
different pruning methods and propose particularly effective choices of initial
layer-wise sparsity ratios of the random source network. As a special case, we
show theoretically and experimentally that random source networks also contain
strong lottery tickets.
- Abstract(参考訳): ランダムマスクは、実験的に示されたように驚くほど効果的なスパースニューラルネットワークモデルを定義する。
結果として生じるスパースネットワークは、計算コストの高いプルーントレインの反復に頼らず、当初かなりの計算オーバーヘッドなしに描画できるにもかかわらず、密集したアーキテクチャや最先端の抽選チケットの刈り取りアルゴリズムとしばしば競合する。
我々は、ランダムマスクが任意のターゲットネットワークを近似する方法の理論的説明を、逆スパルシティ 1 / \log(1/\text{sparsity})$ の対数係数によってより広くできる場合に提供する。
この過パラメータ化係数は、高間隔で観測されたランダムネットワークの劣化性能を解明する3層ランダムネットワークに対して必要である。
しかし、中程度から高いスパースレベルにおいては、スパルサーネットワークがランダムなソースネットワークに含まれていることを示唆し、探索を固定されたランダムマスクに制限することで、任意の密度からスパースへのトレーニングスキームを計算効率良くスパースからスパースへと変換できることを示した。
異なるプルーニング法における実験において,本手法の有効性を実証し,ランダム・ソース・ネットワークの初期層間スパーシティ比を特に効果的に選択することを提案する。
特例として、ランダムソースネットワークにも強力な抽選券が含まれていることを理論的および実験的に示す。
関連論文リスト
- Random Search as a Baseline for Sparse Neural Network Architecture Search [0.0]
スパースニューラルネットワークは、高いパラメータ効率を保ちながら、密度の高いニューラルネットワークと同じような、あるいはより良い性能を示している。
これは、高性能なスパースネットワークを学習したり、検索したりするための多くの研究の動機となった。
本稿では,適切なスパース構成を求めるためのベースラインアルゴリズムとしてランダム検索を提案し,その性能について検討する。
本研究では,このスパースアーキテクチャ探索タスクにおいて,ランダムサーチによって発見されたスパースネットワークは,ランダムサーチよりも効率よくも効率良くも収束もできないことを観察する。
論文 参考訳(メタデータ) (2024-03-13T05:32:13Z) - Computational Complexity of Learning Neural Networks: Smoothness and
Degeneracy [52.40331776572531]
ガウス入力分布下での学習深度3$ReLUネットワークはスムーズな解析フレームワークにおいても困難であることを示す。
この結果は, 局所擬似乱数発生器の存在についてよく研究されている。
論文 参考訳(メタデータ) (2023-02-15T02:00:26Z) - Likelihood-Free Inference with Generative Neural Networks via Scoring
Rule Minimization [0.0]
推測法は、難易度のあるシミュレーターモデルに対する後部近似を導出する。
多くの研究は、難易度または後部に直接近似するようにニューラルネットワークを訓練した。
本稿では,スコーリングルールの最小化によって訓練された生成ネットワークに後部を近似することを提案する。
論文 参考訳(メタデータ) (2022-05-31T13:32:55Z) - Dual Lottery Ticket Hypothesis [71.95937879869334]
Lottery Ticket hypothesis (LTH)は、スパースネットワークトレーニングを調査し、その能力を維持するための新しい視点を提供する。
本稿では,LTHの当選チケットをトレーニング可能なサブネットワークとして,その性能をベンチマークとして検討する。
本稿では,簡単なスパースネットワークトレーニング戦略であるランダムスパースネットワークトランスフォーメーション(RST)を提案し,DLTHを裏付ける。
論文 参考訳(メタデータ) (2022-03-08T18:06:26Z) - The Unreasonable Effectiveness of Random Pruning: Return of the Most
Naive Baseline for Sparse Training [111.15069968583042]
ランダムプルーニングは、ニューラルネットワークのスパーシティを実現する最も単純な方法であることは間違いないが、トレーニング後のプルーニングやスパーストレーニングでは非競争的であると見なされている。
我々は、スクラッチからランダムに切断されたネットワークをスクラッチからスクラッチ的に訓練することで、その密度の高い等価性の性能に一致することを実証的に実証した。
以上の結果から,大規模なスパーストレーニングを行う余地はより大きいことが示唆され,スポーシティのメリットは慎重に設計されたプルーニングを超えて普遍的である可能性が示唆された。
論文 参考訳(メタデータ) (2022-02-05T21:19:41Z) - Why Lottery Ticket Wins? A Theoretical Perspective of Sample Complexity
on Pruned Neural Networks [79.74580058178594]
目的関数の幾何学的構造を解析することにより、刈り取られたニューラルネットワークを訓練する性能を解析する。
本稿では,ニューラルネットワークモデルがプルーニングされるにつれて,一般化が保証された望ましいモデル近傍の凸領域が大きくなることを示す。
論文 参考訳(メタデータ) (2021-10-12T01:11:07Z) - Artificial Neural Networks generated by Low Discrepancy Sequences [59.51653996175648]
我々は、高密度ネットワークグラフ上のランダムウォーキングとして、人工ニューラルネットワークを生成する。
このようなネットワークはスクラッチからスパースを訓練することができ、高密度ネットワークをトレーニングし、その後圧縮する高価な手順を避けることができる。
我々は,低差分シーケンスで生成された人工ニューラルネットワークが,より低い計算複雑性で,密度の高いニューラルネットワークの到達範囲内で精度を達成できることを実証した。
論文 参考訳(メタデータ) (2021-03-05T08:45:43Z) - How Powerful are Shallow Neural Networks with Bandlimited Random
Weights? [25.102870584507244]
制限深度2バンドランダムニューラルネットワークの表現力について検討する。
ランダムネットは、隠れた層パラメータがランダムな帯域幅で凍結されるニューラルネットワークである。
論文 参考訳(メタデータ) (2020-08-19T13:26:12Z) - ESPN: Extremely Sparse Pruned Networks [50.436905934791035]
簡単な反復マスク探索法により,非常に深いネットワークの最先端の圧縮を実現することができることを示す。
本アルゴリズムは,シングルショット・ネットワーク・プルーニング法とロッテ・ティケット方式のハイブリッド・アプローチを示す。
論文 参考訳(メタデータ) (2020-06-28T23:09:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。