論文の概要: Heavy Tails in SGD and Compressibility of Overparametrized Neural
Networks
- arxiv url: http://arxiv.org/abs/2106.03795v1
- Date: Mon, 7 Jun 2021 17:02:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-08 18:31:06.344233
- Title: Heavy Tails in SGD and Compressibility of Overparametrized Neural
Networks
- Title(参考訳): SGDにおける重機と過パラメータニューラルネットワークの圧縮性
- Authors: Melih Barsbey, Milad Sefidgaran, Murat A. Erdogdu, Ga\"el Richard,
Umut \c{S}im\c{s}ekli
- Abstract要約: 本研究では, 勾配降下学習アルゴリズムの力学が圧縮性ネットワークの獲得に重要な役割を担っていることを示す。
我々は,ネットワークが「$ell_p$-compressible」であることが保証され,ネットワークサイズが大きくなるにつれて,異なるプルーニング手法の圧縮誤差が任意に小さくなることを示す。
- 参考スコア(独自算出の注目度): 9.554646174100123
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural network compression techniques have become increasingly popular as
they can drastically reduce the storage and computation requirements for very
large networks. Recent empirical studies have illustrated that even simple
pruning strategies can be surprisingly effective, and several theoretical
studies have shown that compressible networks (in specific senses) should
achieve a low generalization error. Yet, a theoretical characterization of the
underlying cause that makes the networks amenable to such simple compression
schemes is still missing. In this study, we address this fundamental question
and reveal that the dynamics of the training algorithm has a key role in
obtaining such compressible networks. Focusing our attention on stochastic
gradient descent (SGD), our main contribution is to link compressibility to two
recently established properties of SGD: (i) as the network size goes to
infinity, the system can converge to a mean-field limit, where the network
weights behave independently, (ii) for a large step-size/batch-size ratio, the
SGD iterates can converge to a heavy-tailed stationary distribution. In the
case where these two phenomena occur simultaneously, we prove that the networks
are guaranteed to be '$\ell_p$-compressible', and the compression errors of
different pruning techniques (magnitude, singular value, or node pruning)
become arbitrarily small as the network size increases. We further prove
generalization bounds adapted to our theoretical framework, which indeed
confirm that the generalization error will be lower for more compressible
networks. Our theory and numerical study on various neural networks show that
large step-size/batch-size ratios introduce heavy-tails, which, in combination
with overparametrization, result in compressibility.
- Abstract(参考訳): ニューラルネットワーク圧縮技術は、非常に大きなネットワークのストレージと計算要求を大幅に削減できるため、ますます人気が高まっている。
最近の実証研究は、単純な刈り取り戦略でさえ驚くほど効果的であることを示し、いくつかの理論的研究は、圧縮可能なネットワーク(特定の意味で)が低い一般化誤差を達成することを示している。
しかし、そのような単純な圧縮スキームに対処できるネットワークの根本原因に関する理論的特徴はいまだに欠落している。
本研究では,この基本的な問題に対処し,学習アルゴリズムのダイナミクスが圧縮性ネットワークを得る上で重要な役割を担っていることを明らかにした。
確率勾配降下(SGD)に着目して、SGDの最近確立された2つの特性に圧縮性をリンクする: (i) ネットワークサイズが無限大になるにつれて、システムは平均場限界に収束し、ネットワークの重みは独立に振る舞う; (ii) 大きなステップサイズ/バッチサイズ比では、SGDは重尾定常分布に収束する。
これら2つの現象が同時に発生した場合、ネットワークが'$\ell_p$-compressible'であることが保証され、ネットワークサイズが大きくなるにつれて異なるプルーニング技法(マグニチュード、特異値、ノードプルーニング)の圧縮誤差が任意に小さくなることが証明される。
我々はさらに,より圧縮性のあるネットワークでは一般化誤差が低くなることを確認し,理論的な枠組みに適応した一般化境界を証明した。
様々なニューラルネットワークに関する理論と数値研究では、大きなステップサイズ/バッチサイズ比が重く、過パラメータ化と組み合わせて圧縮性をもたらすことが示されている。
関連論文リスト
- Spike-and-slab shrinkage priors for structurally sparse Bayesian neural networks [0.16385815610837165]
スパースディープラーニングは、基礎となるターゲット関数のスパース表現を復元することで、課題に対処する。
構造化された空間によって圧縮されたディープニューラルアーキテクチャは、低レイテンシ推論、データスループットの向上、エネルギー消費の削減を提供する。
本研究では, (i) Spike-and-Slab Group Lasso (SS-GL) と (ii) Spike-and-Slab Group Horseshoe (SS-GHS) を併用した過剰ノードを誘発する構造的疎いベイズニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-08-17T17:14:18Z) - A Theoretical Understanding of Neural Network Compression from Sparse
Linear Approximation [37.525277809849776]
モデル圧縮の目標は、同等のパフォーマンスを維持しながら、大きなニューラルネットワークのサイズを減らすことだ。
圧縮性を特徴付けるためにスペーサ感度$ell_q$-normを使用し、ネットワーク内の重みの柔らかいスペーサと圧縮度の関係を提供する。
また,ネットワーク上で各ニューロンを切断する適応アルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-06-11T20:10:35Z) - Fast Conditional Network Compression Using Bayesian HyperNetworks [54.06346724244786]
条件付き圧縮問題を導入し、それに取り組むための高速なフレームワークを提案する。
問題は、トレーニング済みの大規模ニューラルネットワークをターゲットコンテキストに応じて最適な小さなネットワークに素早く圧縮する方法である。
提案手法は, ベースライン方式よりもはるかに小型の圧縮ネットワークを高速に生成できる。
論文 参考訳(メタデータ) (2022-05-13T00:28:35Z) - On the Compression of Neural Networks Using $\ell_0$-Norm Regularization
and Weight Pruning [0.9821874476902968]
本稿では,ニューラルネットワークのための新しい圧縮スキームの開発に焦点をあてる。
トレーニング中にネットワークに強いスパース性を誘導できる新たな正規化方式が最初に開発された。
提案手法では、オーバーフィッティングを回避するために$ell$-norm正規化と、プルーンドネットワークの性能向上のための微調整も含む。
論文 参考訳(メタデータ) (2021-09-10T19:19:42Z) - Compact representations of convolutional neural networks via weight
pruning and quantization [63.417651529192014]
本稿では、音源符号化に基づく畳み込みニューラルネットワーク(CNN)の新しいストレージフォーマットを提案し、重み付けと量子化の両方を活用する。
我々は、全接続層で0.6%、ネットワーク全体で5.44%のスペース占有率を削減し、最低でもベースラインと同じくらいの競争力を発揮する。
論文 参考訳(メタデータ) (2021-08-28T20:39:54Z) - A Convergence Theory Towards Practical Over-parameterized Deep Neural
Networks [56.084798078072396]
ネットワーク幅と収束時間の両方で既知の理論境界を大幅に改善することにより、理論と実践のギャップを埋める一歩を踏み出します。
本研究では, サンプルサイズが2次幅で, 両者の時間対数で線形なネットワークに対して, 地球最小値への収束が保証されていることを示す。
私たちの分析と収束境界は、いつでも合理的なサイズの同等のRELUネットワークに変換できる固定アクティベーションパターンを備えたサロゲートネットワークの構築によって導出されます。
論文 参考訳(メタデータ) (2021-01-12T00:40:45Z) - Attribution Preservation in Network Compression for Reliable Network
Interpretation [81.84564694303397]
安全に敏感なアプリケーションに埋め込まれたニューラルネットワークは、エッジ計算のサイズを減らすために、後向きの分析とネットワーク圧縮に入力属性に依存する。
ネットワーク圧縮が生成した属性を変形させるため,これらの非関係な手法が相互に競合することを示す。
この現象は、従来のネットワーク圧縮手法が、属性の品質を無視しながら、ネットワークの予測のみを保存するという事実から生じる。
論文 参考訳(メタデータ) (2020-10-28T16:02:31Z) - ESPN: Extremely Sparse Pruned Networks [50.436905934791035]
簡単な反復マスク探索法により,非常に深いネットワークの最先端の圧縮を実現することができることを示す。
本アルゴリズムは,シングルショット・ネットワーク・プルーニング法とロッテ・ティケット方式のハイブリッド・アプローチを示す。
論文 参考訳(メタデータ) (2020-06-28T23:09:27Z) - Compact Neural Representation Using Attentive Network Pruning [1.0152838128195465]
本稿では,Bottom-Upフィードフォワードネットワークに付加されたTop-Downアテンション機構について述べる。
提案手法は, 新たな階層選択機構をプルーニングの基礎として導入するだけでなく, 実験評価において, 従来のベースライン手法と競合するままである。
論文 参考訳(メタデータ) (2020-05-10T03:20:01Z) - Understanding Generalization in Deep Learning via Tensor Methods [53.808840694241]
圧縮の観点から,ネットワークアーキテクチャと一般化可能性の関係について理解を深める。
本稿では、ニューラルネットワークの圧縮性と一般化性を強く特徴付ける、直感的で、データ依存的で、測定が容易な一連の特性を提案する。
論文 参考訳(メタデータ) (2020-01-14T22:26:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。