論文の概要: Finding Lottery Tickets in Vision Models via Data-driven Spectral Foresight Pruning
- arxiv url: http://arxiv.org/abs/2406.01820v1
- Date: Mon, 3 Jun 2024 22:19:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-05 20:42:35.593497
- Title: Finding Lottery Tickets in Vision Models via Data-driven Spectral Foresight Pruning
- Title(参考訳): データ駆動型スペクトルフォアサイト・プルーニングによる視覚モデルにおけるロッキーティケットの発見
- Authors: Leonardo Iurada, Marco Ciccone, Tatiana Tommasi,
- Abstract要約: 本稿では,スパースネットワークのトレーニングダイナミクスと高密度ネットワークのトレーニングダイナミクスを一致させるアルゴリズムを提案する。
NTKスペクトルにおける通常無視されるデータ依存成分がどのように考慮されるかを示す。
パスeXclusion(PX)は、高頻度でも宝くじを見つけることができる。
- 参考スコア(独自算出の注目度): 14.792099973449794
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in neural network pruning have shown how it is possible to reduce the computational costs and memory demands of deep learning models before training. We focus on this framework and propose a new pruning at initialization algorithm that leverages the Neural Tangent Kernel (NTK) theory to align the training dynamics of the sparse network with that of the dense one. Specifically, we show how the usually neglected data-dependent component in the NTK's spectrum can be taken into account by providing an analytical upper bound to the NTK's trace obtained by decomposing neural networks into individual paths. This leads to our Path eXclusion (PX), a foresight pruning method designed to preserve the parameters that mostly influence the NTK's trace. PX is able to find lottery tickets (i.e. good paths) even at high sparsity levels and largely reduces the need for additional training. When applied to pre-trained models it extracts subnetworks directly usable for several downstream tasks, resulting in performance comparable to those of the dense counterpart but with substantial cost and computational savings. Code available at: https://github.com/iurada/px-ntk-pruning
- Abstract(参考訳): ニューラルネットワークプルーニングの最近の進歩は、トレーニング前にディープラーニングモデルの計算コストとメモリ要求を削減できることを示している。
我々は,この枠組みに焦点をあて,ニューラルタンジェントカーネル(NTK)理論を利用して,スパースネットワークのトレーニングダイナミクスと高密度ネットワークのトレーニングダイナミクスを整合させる新しい初期化アルゴリズムを提案する。
具体的には、ニューラルネットワークを個別の経路に分解して得られたNTKのトレースに解析上界を与えることにより、NTKスペクトルの通常無視されるデータ依存成分を考慮に入れる方法を示す。
これはNTKのトレースに大きく影響するパラメータを保存するために設計された、先見的なプルーニング手法であるPath eXclusion(PX)につながります。
PXは、高い空き地でも宝くじ(つまり良い道)を見つけることができ、追加の訓練の必要性を大幅に減らすことができる。
事前訓練されたモデルに適用すると、いくつかの下流タスクで直接使用できるサブネットワークを抽出し、結果として高密度のタスクに匹敵するパフォーマンスを得るが、かなりのコストと計算コストを節約できる。
https://github.com/iurada/px-ntk-pruning
関連論文リスト
- Testing RadiX-Nets: Advances in Viable Sparse Topologies [0.9555447998395205]
ハイパーパラメタライズドディープニューラルネットワーク(DNN)のスパシフィケーションは、複雑なデータのより単純な表現を生成する。
DNNのサブグループであるRadiX-Netsは、ニューラルネットワークの欠如に対処するランタイムを維持している。
本稿では,スケーラブルモデルにおけるRadiX-Netsのテストスイートを提案する。
論文 参考訳(メタデータ) (2023-11-06T23:27:28Z) - Speed Limits for Deep Learning [67.69149326107103]
熱力学の最近の進歩は、初期重量分布から完全に訓練されたネットワークの最終分布への移動速度の制限を可能にする。
線形および線形化可能なニューラルネットワークに対して,これらの速度制限に対する解析式を提供する。
NTKスペクトルとラベルのスペクトル分解に関するいくつかの妥当なスケーリング仮定を考えると、学習はスケーリングの意味で最適である。
論文 参考訳(メタデータ) (2023-07-27T06:59:46Z) - NTK-SAP: Improving neural network pruning by aligning training dynamics [13.887349224871045]
ニューラルカーネル(NTK)理論の最近の進歩は、十分に大きなニューラルネットワークのトレーニング力学が、NTKのスペクトルと密接に関連していることを示唆している。
我々はNTKのスペクトルに最も影響の少ない接続をプルークする。
我々は、先見的なプルーニングアルゴリズム、Neural Kernel Spectrum-Aware Pruning (NTK-SAP) を命名する。
論文 参考訳(メタデータ) (2023-04-06T03:10:03Z) - Neural Capacitance: A New Perspective of Neural Network Selection via
Edge Dynamics [85.31710759801705]
現在の実践は、性能予測のためのモデルトレーニングにおいて高価な計算コストを必要とする。
本稿では,学習中のシナプス接続(エッジ)上の制御ダイナミクスを解析し,ニューラルネットワーク選択のための新しいフレームワークを提案する。
我々のフレームワークは、ニューラルネットワークトレーニング中のバックプロパゲーションがシナプス接続の動的進化と等価であるという事実に基づいて構築されている。
論文 参考訳(メタデータ) (2022-01-11T20:53:15Z) - Why Lottery Ticket Wins? A Theoretical Perspective of Sample Complexity
on Pruned Neural Networks [79.74580058178594]
目的関数の幾何学的構造を解析することにより、刈り取られたニューラルネットワークを訓練する性能を解析する。
本稿では,ニューラルネットワークモデルがプルーニングされるにつれて,一般化が保証された望ましいモデル近傍の凸領域が大きくなることを示す。
論文 参考訳(メタデータ) (2021-10-12T01:11:07Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Scaling Neural Tangent Kernels via Sketching and Random Features [53.57615759435126]
最近の研究報告では、NTKレグレッションは、小規模データセットでトレーニングされた有限範囲のニューラルネットワークより優れている。
我々は、アークコサインカーネルの拡張をスケッチして、NTKの近距離入力スパーシティ時間近似アルゴリズムを設計する。
CNTKの特徴をトレーニングした線形回帰器が,CIFAR-10データセット上での正確なCNTKの精度と150倍の高速化を実現していることを示す。
論文 参考訳(メタデータ) (2021-06-15T04:44:52Z) - Random Features for the Neural Tangent Kernel [57.132634274795066]
完全接続型ReLUネットワークのニューラルタンジェントカーネル(NTK)の効率的な特徴マップ構築を提案する。
得られた特徴の次元は、理論と実践の両方で比較誤差境界を達成するために、他のベースライン特徴マップ構造よりもはるかに小さいことを示しています。
論文 参考訳(メタデータ) (2021-04-03T09:08:12Z) - A Revision of Neural Tangent Kernel-based Approaches for Neural Networks [34.75076385561115]
ニューラルネットワークカーネルを使用して、ネットワークが任意の有限トレーニングサンプルに完全に適合できることを示す。
単純で解析的なカーネル関数は、完全に訓練されたネットワークと同等のものとして導出された。
より厳密な分析により,スケーリングの問題が解決され,元のNTKに基づく結果の検証が可能となった。
論文 参考訳(メタデータ) (2020-07-02T05:07:55Z) - Pruning neural networks without any data by iteratively conserving
synaptic flow [27.849332212178847]
ディープニューラルネットワークのパラメータを抽出することは、時間、記憶、エネルギーの潜在的な節約によって、大きな関心を集めている。
近年の研究では、高価なトレーニングとプルーニングサイクルを通じて、当選した宝くじやスパーストレーナーブルワークスの存在が特定されている。
我々は、理論駆動型アルゴリズム設計を通じて、この問題に対する肯定的な回答を提供する。
論文 参考訳(メタデータ) (2020-06-09T19:21:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。