論文の概要: Prospect Pruning: Finding Trainable Weights at Initialization using
Meta-Gradients
- arxiv url: http://arxiv.org/abs/2202.08132v1
- Date: Wed, 16 Feb 2022 15:18:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-17 15:35:00.415641
- Title: Prospect Pruning: Finding Trainable Weights at Initialization using
Meta-Gradients
- Title(参考訳): prospect pruning: meta-gradients を用いた初期化時のトレーニング可能な重みの探索
- Authors: Milad Alizadeh, Shyam A. Tailor, Luisa M Zintgraf, Joost van
Amersfoort, Sebastian Farquhar, Nicholas Donald Lane, Yarin Gal
- Abstract要約: 初期化時にニューラルネットワークをプルーニングすることで、元のネットワークの精度を保ったスパースモデルを見つけることができる。
現在の方法は、この最適化を可能にするには不十分であり、モデル性能の大幅な低下につながります。
提案するProspect Pruning(ProsPr)は,最適化の最初の数ステップを通じてメタグラディエントを用いて,どの重み付けを行うかを決定する。
本手法は,従来のプルーニング・アット・初期化手法と比較して,データの少ない1ショットで,様々な視覚分類タスクにおける最先端のプルーニング性能を実現する。
- 参考スコア(独自算出の注目度): 36.078414964088196
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pruning neural networks at initialization would enable us to find sparse
models that retain the accuracy of the original network while consuming fewer
computational resources for training and inference. However, current methods
are insufficient to enable this optimization and lead to a large degradation in
model performance. In this paper, we identify a fundamental limitation in the
formulation of current methods, namely that their saliency criteria look at a
single step at the start of training without taking into account the
trainability of the network. While pruning iteratively and gradually has been
shown to improve pruning performance, explicit consideration of the training
stage that will immediately follow pruning has so far been absent from the
computation of the saliency criterion. To overcome the short-sightedness of
existing methods, we propose Prospect Pruning (ProsPr), which uses
meta-gradients through the first few steps of optimization to determine which
weights to prune. ProsPr combines an estimate of the higher-order effects of
pruning on the loss and the optimization trajectory to identify the trainable
sub-network. Our method achieves state-of-the-art pruning performance on a
variety of vision classification tasks, with less data and in a single shot
compared to existing pruning-at-initialization methods.
- Abstract(参考訳): ニューラルネットワークを初期化することで、元のネットワークの精度を保ちながら、トレーニングや推論のための計算リソースを少なくするスパースモデルを見つけることが可能になります。
しかし、この最適化を実現するために現在の手法では不十分であり、モデルの性能が大幅に低下する。
本稿では,現在の手法の定式化における基本的な限界,すなわち,ネットワークのトレーサビリティを考慮せずに,トレーニング開始時の単一ステップを評価できることを明らかにする。
反復的かつ段階的に刈り取ることによって刈り取り性能が向上することが示されているが、刈り込みに追従する訓練段階の明示的な考察は、これまでのところサリエンシ基準の計算には欠落している。
既存手法の近視性を克服するために,最適化の最初の数ステップでメタ勾配を用いたプルーニング(prospr)を提案し,プルーニングの重み付けを判定する。
ProsPrは、訓練可能なサブネットワークを識別するための損失と最適化軌道に対するプルーニングの高次効果を推定する。
本手法は,従来のプルーニング・ア・イニシャライズ法に比べて少ないデータと1ショットで,様々な視覚分類タスクにおいて最先端のプルーニング性能を実現する。
関連論文リスト
- Enhancing Robustness of Vision-Language Models through Orthogonality Learning and Self-Regularization [77.62516752323207]
そこで本研究では,事前訓練した重みを効率よく微調整する直交微調整法を導入し,頑健さと一般化の強化を実現した。
自己正規化戦略は、OrthSRと呼ばれるVLMのゼロショット一般化の観点から安定性を維持するためにさらに活用される。
筆者らはCLIPとCoOpを再検討し,少数の画像のクラスフィシエーションシナリオにおけるモデルの改善を効果的に行う。
論文 参考訳(メタデータ) (2024-07-11T10:35:53Z) - A Unified Framework for Soft Threshold Pruning [27.853698217792456]
反復収縮閾値アルゴリズム(ISTA)を用いた暗黙の最適化問題としてソフトしきい値プルーニングを再構成する。
我々は,フレームワークに基づくしきい値スケジューリングの詳細な研究を通じて,最適なしきい値スケジューラを導出する。
原理的には、導出プルーニングアルゴリズムは、SGDで訓練された任意の数学的モデルをスパース化することができる。
論文 参考訳(メタデータ) (2023-02-25T08:16:14Z) - Dynamic Iterative Refinement for Efficient 3D Hand Pose Estimation [87.54604263202941]
本稿では,従来の推定値の修正に部分的レイヤを反復的に活用する,小さなディープニューラルネットワークを提案する。
学習したゲーティング基準を用いて、ウェイトシェアリングループから抜け出すかどうかを判断し、モデルにサンプルごとの適応を可能にする。
提案手法は,広く使用されているベンチマークの精度と効率の両面から,最先端の2D/3Dハンドポーズ推定手法より一貫して優れている。
論文 参考訳(メタデータ) (2021-11-11T23:31:34Z) - Back to Basics: Efficient Network Compression via IMP [22.586474627159287]
イテレーティブ・マグニチュード・プルーニング(IMP)は、ネットワーク・プルーニングにおける最も確立されたアプローチの1つである。
IMPは、トレーニングフェーズにスパーシフィケーションを組み込まないことで、最適以下の状態に達するとしばしば主張される。
再学習のためのSLRを用いたIMPは、最先端のプルーニング訓練手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-11-01T11:23:44Z) - When to Prune? A Policy towards Early Structural Pruning [27.91996628143805]
我々は,パフォーマンスを損なうことなく,できるだけ早期に訓練を行う政策を提案する。
我々の方法では、最先端のプルーニングに比べて1.4%の精度でトップ1の精度が向上し、GPUのトレーニングコストを2.4%削減する。
論文 参考訳(メタデータ) (2021-10-22T18:39:22Z) - Initialization and Regularization of Factorized Neural Layers [23.875225732697142]
ディープネットにおける因子化層の初期化と規則化の方法を示す。
これらのスキームが翻訳と教師なしプリトレーニングの両方のパフォーマンスを向上させる方法を示しています。
論文 参考訳(メタデータ) (2021-05-03T17:28:07Z) - Rapid Structural Pruning of Neural Networks with Set-based Task-Adaptive
Meta-Pruning [83.59005356327103]
既存のプルーニング技術に共通する制限は、プルーニングの前に少なくとも1回はネットワークの事前トレーニングが必要であることである。
本稿では,ターゲットデータセットの関数としてプルーニングマスクを生成することにより,大規模な参照データセット上で事前訓練されたネットワークをタスク適応的にプルークするSTAMPを提案する。
ベンチマークデータセット上での最近の先進的なプルーニング手法に対するSTAMPの有効性を検証する。
論文 参考訳(メタデータ) (2020-06-22T10:57:43Z) - Progressive Skeletonization: Trimming more fat from a network at
initialization [76.11947969140608]
本稿では,接続感度が最大となるスケルトン化ネットワークを提案する。
次に、目的を最大化する2つの近似手順を提案する。
提案手法は, 高い刈り込みレベルにおいて, 性能を著しく向上させる。
論文 参考訳(メタデータ) (2020-06-16T11:32:47Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z) - Robust Pruning at Initialization [61.30574156442608]
計算リソースが限られているデバイス上で、機械学習アプリケーションを使用するための、より小さく、エネルギー効率のよいニューラルネットワークの必要性が高まっている。
ディープNNにとって、このような手順はトレーニングが困難であり、例えば、ひとつの層が完全に切断されるのを防ぐことができないため、満足できないままである。
論文 参考訳(メタデータ) (2020-02-19T17:09:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。