論文の概要: Weight Pruning via Adaptive Sparsity Loss
- arxiv url: http://arxiv.org/abs/2006.02768v1
- Date: Thu, 4 Jun 2020 10:55:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 09:26:06.203925
- Title: Weight Pruning via Adaptive Sparsity Loss
- Title(参考訳): 適応的スパーシリティ損失による軽量プルーニング
- Authors: George Retsinas, Athena Elafrou, Georgios Goumas, Petros Maragos
- Abstract要約: 近年、最先端のディープニューラルネットワークを圧縮する手段として、プルーニングニューラルネットワークが注目を集めている。
本稿では,ネットワークパラメータを最小限の計算オーバーヘッドで効率的に学習する頑健な学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 31.978830843036658
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pruning neural networks has regained interest in recent years as a means to
compress state-of-the-art deep neural networks and enable their deployment on
resource-constrained devices. In this paper, we propose a robust compressive
learning framework that efficiently prunes network parameters during training
with minimal computational overhead. We incorporate fast mechanisms to prune
individual layers and build upon these to automatically prune the entire
network under a user-defined budget constraint. Key to our end-to-end network
pruning approach is the formulation of an intuitive and easy-to-implement
adaptive sparsity loss that is used to explicitly control sparsity during
training, enabling efficient budget-aware optimization. Extensive experiments
demonstrate the effectiveness of the proposed framework for image
classification on the CIFAR and ImageNet datasets using different
architectures, including AlexNet, ResNets and Wide ResNets.
- Abstract(参考訳): 近年のプルーニングニューラルネットワークは、最先端のディープニューラルネットワークを圧縮し、リソースに制約のあるデバイスへの展開を可能にする手段として、関心を取り戻している。
本稿では,ネットワークパラメータを最小限の計算オーバーヘッドで効率的に学習する頑健な圧縮学習フレームワークを提案する。
私たちは、個々のレイヤをプルーピングする高速なメカニズムを組み込んで、ユーザ定義の予算制約の下でネットワーク全体をプルーピングするように構築します。
エンドツーエンドネットワークプルーニングアプローチの鍵は、トレーニング中にスパーシティを明示的に制御し、効率的な予算・アウェア最適化を可能にするために使用される、直感的で実装が容易な適応スパーシティ損失(adaptive sparsity loss)を定式化することです。
広範な実験により、alexnet、resnets、wide resnetsなどの異なるアーキテクチャを用いたcifarおよびimagenetデータセット上の画像分類フレームワークの有効性が実証された。
関連論文リスト
- Accelerating Deep Neural Networks via Semi-Structured Activation
Sparsity [0.0]
ネットワークの機能マップにスパシティを爆発させることは、推論のレイテンシを低減する方法の1つです。
そこで本研究では,セミ構造化されたアクティベーション空間を小さなランタイム修正によって活用する手法を提案する。
当社のアプローチでは,ImageNetデータセット上のResNet18モデルに対して,最小精度が1.1%の1.25倍の速度向上を実現している。
論文 参考訳(メタデータ) (2023-09-12T22:28:53Z) - A Generalization of Continuous Relaxation in Structured Pruning [0.3277163122167434]
トレンドは、パラメータが増加するより深い、より大きなニューラルネットワークが、より小さなニューラルネットワークよりも高い精度を達成することを示している。
ネットワーク拡張, プルーニング, サブネットワーク崩壊, 削除のためのアルゴリズムを用いて, 構造化プルーニングを一般化する。
結果のCNNは計算コストのかかるスパース行列演算を使わずにGPUハードウェア上で効率的に実行される。
論文 参考訳(メタデータ) (2023-08-28T14:19:13Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Learning a Consensus Sub-Network with Polarization Regularization and
One Pass Training [3.2214522506924093]
プルーニングスキームは、静的プルーニングのための反復的なトレーニングと微調整、動的プルーニンググラフの繰り返し計算によって、余分なオーバーヘッドを生み出す。
本稿では,より軽量なサブネットワークを学習するためのパラメータ解析手法を提案する。
CIFAR-10 と CIFAR-100 を用いた結果,分類精度が1% 未満の深層ネットワークにおける接続の50%を除去できることが示唆された。
論文 参考訳(メタデータ) (2023-02-17T09:37:17Z) - Leveraging Structured Pruning of Convolutional Neural Networks [2.2320512724449233]
本稿では,任意の構造化プルーニングマスクを用いて,これらの問題に遭遇しないネットワークを生成する手法を提案する。
我々は, 畳み込み畳み込みニューラルネットワークによる, 組込みハードウェア上でのエネルギー消費と推定時間の利得を示す。
論文 参考訳(メタデータ) (2022-06-13T15:29:12Z) - On the Compression of Neural Networks Using $\ell_0$-Norm Regularization
and Weight Pruning [0.9821874476902968]
本稿では,ニューラルネットワークのための新しい圧縮スキームの開発に焦点をあてる。
トレーニング中にネットワークに強いスパース性を誘導できる新たな正規化方式が最初に開発された。
提案手法では、オーバーフィッティングを回避するために$ell$-norm正規化と、プルーンドネットワークの性能向上のための微調整も含む。
論文 参考訳(メタデータ) (2021-09-10T19:19:42Z) - Rapid Structural Pruning of Neural Networks with Set-based Task-Adaptive
Meta-Pruning [83.59005356327103]
既存のプルーニング技術に共通する制限は、プルーニングの前に少なくとも1回はネットワークの事前トレーニングが必要であることである。
本稿では,ターゲットデータセットの関数としてプルーニングマスクを生成することにより,大規模な参照データセット上で事前訓練されたネットワークをタスク適応的にプルークするSTAMPを提案する。
ベンチマークデータセット上での最近の先進的なプルーニング手法に対するSTAMPの有効性を検証する。
論文 参考訳(メタデータ) (2020-06-22T10:57:43Z) - Fitting the Search Space of Weight-sharing NAS with Graph Convolutional
Networks [100.14670789581811]
サンプルサブネットワークの性能に適合するグラフ畳み込みネットワークを訓練する。
この戦略により、選択された候補集合において、より高いランク相関係数が得られる。
論文 参考訳(メタデータ) (2020-04-17T19:12:39Z) - Deep Adaptive Inference Networks for Single Image Super-Resolution [72.7304455761067]
シングルイメージ超解像(SISR)は、ディープ畳み込みニューラルネットワーク(CNN)の展開により、近年大きく進歩している。
本稿では,深部SISR(AdaDSR)の適応型推論ネットワークを活用することで,この問題に対処する。
我々のAdaDSRは、SISRモデルをバックボーンとし、画像の特徴とリソース制約を入力として取り、ローカルネットワーク深さのマップを予測する軽量アダプタモジュールを備える。
論文 参考訳(メタデータ) (2020-04-08T10:08:20Z) - Resolution Adaptive Networks for Efficient Inference [53.04907454606711]
本稿では,低分解能表現が「容易」な入力を分類するのに十分である,という直感に触発された新しいレゾリューション適応ネットワーク(RANet)を提案する。
RANetでは、入力画像はまず、低解像度表現を効率的に抽出する軽量サブネットワークにルーティングされる。
ネットワーク内の高解像度パスは、"ハード"サンプルを認識する能力を維持している。
論文 参考訳(メタデータ) (2020-03-16T16:54:36Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。