論文の概要: FlipOut: Uncovering Redundant Weights via Sign Flipping
- arxiv url: http://arxiv.org/abs/2009.02594v1
- Date: Sat, 5 Sep 2020 20:27:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 20:44:57.549104
- Title: FlipOut: Uncovering Redundant Weights via Sign Flipping
- Title(参考訳): FlipOut:Sign Flippingで冗長ウェイトを発見
- Authors: Andrei Apostol, Maarten Stol, Patrick Forr\'e
- Abstract要約: そこで本研究では,トレーニング中に重みが作用する0ドル前後の振動を用いて,その正当性を決定する新しいプルーニング法を提案する。
提案手法は,ネットワークが収束する前にプルーニングを行うことができ,チューニングの手間が少なく,ユーザが望むスパシティのレベルを直接的にターゲットすることができる。
各種オブジェクト分類アーキテクチャを用いて実施した本実験は,既存手法と競合し,99.6%以上のスパーシリティレベルの最先端性能を実現することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern neural networks, although achieving state-of-the-art results on many
tasks, tend to have a large number of parameters, which increases training time
and resource usage. This problem can be alleviated by pruning. Existing
methods, however, often require extensive parameter tuning or multiple cycles
of pruning and retraining to convergence in order to obtain a favorable
accuracy-sparsity trade-off. To address these issues, we propose a novel
pruning method which uses the oscillations around $0$ (i.e. sign flips) that a
weight has undergone during training in order to determine its saliency. Our
method can perform pruning before the network has converged, requires little
tuning effort due to having good default values for its hyperparameters, and
can directly target the level of sparsity desired by the user. Our experiments,
performed on a variety of object classification architectures, show that it is
competitive with existing methods and achieves state-of-the-art performance for
levels of sparsity of $99.6\%$ and above for most of the architectures tested.
For reproducibility, we release our code publicly at
https://github.com/AndreiXYZ/flipout.
- Abstract(参考訳): 現代のニューラルネットワークは多くのタスクで最先端の結果を達成するが、多くのパラメータを持ち、トレーニング時間とリソース使用量を増加させる傾向にある。
この問題は刈り込みによって緩和できる。
しかし、既存の手法では、適切な精度-スパース性トレードオフを得るために、広範囲なパラメータチューニングや複数サイクルのプルーニング、コンバージェンスへの再訓練が必要となる。
これらの問題に対処するため,我々は,トレーニング中に重みが下がった約$0$(すなわち手転)の振動を利用して,その塩分を判定する新しいプルーニング法を提案する。
提案手法は,ネットワークが収束する前にプルーニングを行うことができ,ハイパーパラメータのデフォルト値がよいため,チューニングの労力が少なく,ユーザが望むスパシティのレベルを直接ターゲットできる。
各種オブジェクト分類アーキテクチャを用いて実施した本実験は,既存の手法と競合し,テスト対象のほとんどのアーキテクチャに対して99.6 %以上のスパーシリティのレベルにおいて,最先端のパフォーマンスを実現することを示す。
再現性については、https://github.com/AndreiXYZ/flipout.comで公開しています。
関連論文リスト
- Cyclic Sparse Training: Is it Enough? [17.02564269659367]
そこで本研究では,任意のスパースマスクの繰り返しサイクルトレーニングと,パラメータとマスクをペアリングする単一プルーニングステップを提案する。
これは、計算コストの削減により、高疎性状態における最先端の反復的プルーニング手法の性能に匹敵する。
論文 参考訳(メタデータ) (2024-06-04T20:40:27Z) - DRIVE: Dual Gradient-Based Rapid Iterative Pruning [2.209921757303168]
現代のディープニューラルネットワーク(DNN)は、数百万のパラメータで構成され、トレーニングと推論中にハイパフォーマンスコンピューティングを必要とする。
学習後推論の合理化に焦点をあてた従来の刈り込み手法は, 訓練前の刈り込みによって早期に疎水性を活用する試みが近年行われている。
創発に固有のランダム性に対処するために,初期エポックに対する濃密なトレーニングを活用するDual Gradient-Based Rapid Iterative Pruning (DRIVE)を提案する。
論文 参考訳(メタデータ) (2024-04-01T20:44:28Z) - Parameter-efficient Tuning of Large-scale Multimodal Foundation Model [68.24510810095802]
我々はこれらの課題を克服するために、クロスモーダル転送(Aurora)のための優雅なプロンプトフレームワークを提案する。
既存のアーキテクチャの冗長性を考慮すると、まずモード近似を用いて0.1Mのトレーニング可能なパラメータを生成し、マルチモーダルプロンプトチューニングを実装する。
6つのクロスモーダルベンチマークの徹底的な評価は、最先端のベンチマークを上回るだけでなく、完全な微調整アプローチよりも優れていることを示している。
論文 参考訳(メタデータ) (2023-05-15T06:40:56Z) - Learning a Consensus Sub-Network with Polarization Regularization and
One Pass Training [3.2214522506924093]
プルーニングスキームは、静的プルーニングのための反復的なトレーニングと微調整、動的プルーニンググラフの繰り返し計算によって、余分なオーバーヘッドを生み出す。
本稿では,より軽量なサブネットワークを学習するためのパラメータ解析手法を提案する。
CIFAR-10 と CIFAR-100 を用いた結果,分類精度が1% 未満の深層ネットワークにおける接続の50%を除去できることが示唆された。
論文 参考訳(メタデータ) (2023-02-17T09:37:17Z) - Powerpropagation: A sparsity inducing weight reparameterisation [65.85142037667065]
我々は、本質的にスパースモデルにつながるニューラルネットワークの新しい重みパラメータ化であるPowerpropagationを紹介した。
この方法で訓練されたモデルは同様の性能を示すが、0で明らかに高い密度の分布を持ち、より多くのパラメータを安全に刈り取ることができる。
ここでは、Powerpropagationと従来のウェイトプルーニング技術と、最近の最先端スパース・トゥ・スパースアルゴリズムを組み合わせることで、ImageNetベンチマークで優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-10-01T10:03:57Z) - Sparse Training via Boosting Pruning Plasticity with Neuroregeneration [79.78184026678659]
本研究では, プラスティック性の観点から, 訓練を通しての刈り込みの効果について検討した。
ゼロコスト神経再生(GraNet)と動的スパーストレーニング(DST)変異(GraNet-ST)を併用した段階的プラニング(gradual pruning)法を考案した。
おそらく最も印象的なのは、ImageNet上のResNet-50との大きなマージンで、さまざまな密集したスパースメソッドに対するスパース・ツー・スパーストレーニングのパフォーマンスを初めて向上させたことだ。
論文 参考訳(メタデータ) (2021-06-19T02:09:25Z) - Towards Optimal Filter Pruning with Balanced Performance and Pruning
Speed [17.115185960327665]
本稿では,性能とプルーニング速度の両立のために,バランスの取れたフィルタプルーニング法を提案する。
提案手法は, 約層幅の最適プルーニング速度を予め設定した損失変動で再現できる。
提案手法は共通アーキテクチャに適用可能であり,最終微調整以外の追加訓練は行わない。
論文 参考訳(メタデータ) (2020-10-14T06:17:09Z) - Progressive Skeletonization: Trimming more fat from a network at
initialization [76.11947969140608]
本稿では,接続感度が最大となるスケルトン化ネットワークを提案する。
次に、目的を最大化する2つの近似手順を提案する。
提案手法は, 高い刈り込みレベルにおいて, 性能を著しく向上させる。
論文 参考訳(メタデータ) (2020-06-16T11:32:47Z) - AdaS: Adaptive Scheduling of Stochastic Gradients [50.80697760166045]
我々は、textit "knowledge gain" と textit "mapping condition" の概念を導入し、Adaptive Scheduling (AdaS) と呼ばれる新しいアルゴリズムを提案する。
実験によると、AdaSは派生した指標を用いて、既存の適応学習手法よりも高速な収束と優れた一般化、そして(b)いつトレーニングを中止するかを決定するための検証セットへの依存の欠如を示す。
論文 参考訳(メタデータ) (2020-06-11T16:36:31Z) - Towards Practical Lottery Ticket Hypothesis for Adversarial Training [78.30684998080346]
トレーニングプロセス中にはるかに高速に収束する,前述のサブネットワークのサブセットが存在することを示す。
本研究の実践的応用として,このようなサブネットワークは,対人訓練の総時間を短縮する上で有効であることを示す。
論文 参考訳(メタデータ) (2020-03-06T03:11:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。