論文の概要: Toward Compact Deep Neural Networks via Energy-Aware Pruning
- arxiv url: http://arxiv.org/abs/2103.10858v1
- Date: Fri, 19 Mar 2021 15:33:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 14:42:01.763589
- Title: Toward Compact Deep Neural Networks via Energy-Aware Pruning
- Title(参考訳): エネルギー認識プルーニングによる小型深層ニューラルネットワークを目指して
- Authors: Seul-Ki Yeom, Kyung-Hwan Shim, Jee-Hyun Hwang
- Abstract要約: ネットワークにおける各フィルタの重要性を核ノルム(NN)を用いて定量化する新しいエネルギー対応プルーニング手法を提案する。
FLOPの40.4/49.8%、パラメータ還元の45.9/52.9%、トップ1の精度の94.13/94.61%、CIFAR-10のResNet-56/110で競合する結果を得た。
- 参考スコア(独自算出の注目度): 2.578242050187029
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite of the remarkable performance, modern deep neural networks are
inevitably accompanied with a significant amount of computational cost for
learning and deployment, which may be incompatible with their usage on edge
devices. Recent efforts to reduce these overheads involves pruning and
decomposing the parameters of various layers without performance deterioration.
Inspired by several decomposition studies, in this paper, we propose a novel
energy-aware pruning method that quantifies the importance of each filter in
the network using nuclear-norm (NN). Proposed energy-aware pruning leads to
state-of-the art performance for Top-1 accuracy, FLOPs, and parameter reduction
across a wide range of scenarios with multiple network architectures on
CIFAR-10 and ImageNet after fine-grained classification tasks. On toy
experiment, despite of no fine-tuning, we can visually observe that NN not only
has little change in decision boundaries across classes, but also clearly
outperforms previous popular criteria. We achieve competitive results with
40.4/49.8% of FLOPs and 45.9/52.9% of parameter reduction with 94.13/94.61% in
the Top-1 accuracy with ResNet-56/110 on CIFAR-10, respectively. In addition,
our observations are consistent for a variety of different pruning setting in
terms of data size as well as data quality which can be emphasized in the
stability of the acceleration and compression with negligible accuracy loss.
Our code is available at https://github.com/nota-github/nota-pruning_rank.
- Abstract(参考訳): 驚くべきパフォーマンスにもかかわらず、現代のディープニューラルネットワークは必然的に、学習とデプロイメントにかなりの計算コストを伴っており、エッジデバイスでの使用と互換性がない可能性がある。
これらのオーバーヘッドを減らそうとする最近の取り組みは、パフォーマンスの劣化なしに様々な層のパラメータを刈り取り分解することである。
そこで本研究では,ネットワークにおける各フィルタの重要性を核ノルム(NN)を用いて定量化する,新しいエネルギー対応プルーニング手法を提案する。
提案されたエネルギ対応プルーニングは、CIFAR-10とImageNet上の複数のネットワークアーキテクチャを持つ広範囲のシナリオを対象とした、Top-1精度、FLOP、パラメータ削減のための最先端技術性能をもたらす。
おもちゃの実験では、微調整をしていないにもかかわらず、NNがクラス間の決定境界にほとんど変化がないだけでなく、以前の一般的な基準よりも明らかに優れていることを視覚的に観察することができる。
40.4/49.8%、パラメータ低減45.9/52.9%、top-1精度94.13/94.61%、resnet-56/110、cifar-10。
さらに,データサイズやデータ品質の点で異なるプルーニング設定に一貫性があり,アクセラレーションと圧縮の安定性を無視できる精度損失で強調することができる。
私たちのコードはhttps://github.com/nota-github/nota-pruning_rankで利用可能です。
関連論文リスト
- Joint Pruning and Channel-wise Mixed-Precision Quantization for Efficient Deep Neural Networks [10.229120811024162]
ディープニューラルネットワーク(DNN)は、エッジデバイスへのデプロイメントに重大な課題をもたらす。
この問題に対処する一般的なアプローチは、プルーニングと混合精度量子化である。
そこで本研究では,軽量な勾配探索を用いて共同で適用するための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-07-01T08:07:02Z) - Towards Generalized Entropic Sparsification for Convolutional Neural Networks [0.0]
畳み込みニューラルネットワーク(CNN)は過度にパラメータ化されていると報告されている。
本稿では,計算可能エントロピー緩和を目的とした数学的アイデアに基づく層間データ駆動プルーニング手法を提案する。
スパースサブネットワークは、ネットワークエントロピー最小化をスペーサ性制約として使用した、事前訓練された(フル)CNNから得られる。
論文 参考訳(メタデータ) (2024-04-06T21:33:39Z) - Instant Complexity Reduction in CNNs using Locality-Sensitive Hashing [50.79602839359522]
本稿では,パラメータフリーでデータフリーなモジュールであるHASTE(Hashing for Tractable Efficiency)を提案する。
局所性感応ハッシュ (LSH) を用いることで, 精度を犠牲にすることなく, 遅延特徴写像を劇的に圧縮することができる。
特に、HASTEモジュール用のCIFAR-10上のResNet34で畳み込みモジュールを切り替えるだけで、FLOPの46.72%を即座に落とすことができる。
論文 参考訳(メタデータ) (2023-09-29T13:09:40Z) - Efficient Joint Optimization of Layer-Adaptive Weight Pruning in Deep
Neural Networks [48.089501687522954]
ディープニューラルネットワーク(DNN)のための新しい層適応型重み決定手法を提案する。
我々のアプローチは、レイヤ適応型プルーニングスキームを設計するためのすべてのレイヤの集団的影響を考慮に入れている。
我々の実験は、ImageNetとCIFAR-10データセット上の既存の手法よりも、我々のアプローチの方が優れていることを示す。
論文 参考訳(メタデータ) (2023-08-21T03:22:47Z) - WeightMom: Learning Sparse Networks using Iterative Momentum-based
pruning [0.0]
本稿では,前回の繰り返しの運動量に基づいて徐々に重みを刈り取る,重みに基づくプルーニング手法を提案する。
我々は,CIFAR-10やCIFAR-100といった画像分類データセットを用いて,AlexNet,VGG16,ResNet50などのネットワークに対するアプローチを評価する。
論文 参考訳(メタデータ) (2022-08-11T07:13:59Z) - Compact representations of convolutional neural networks via weight
pruning and quantization [63.417651529192014]
本稿では、音源符号化に基づく畳み込みニューラルネットワーク(CNN)の新しいストレージフォーマットを提案し、重み付けと量子化の両方を活用する。
我々は、全接続層で0.6%、ネットワーク全体で5.44%のスペース占有率を削減し、最低でもベースラインと同じくらいの競争力を発揮する。
論文 参考訳(メタデータ) (2021-08-28T20:39:54Z) - Hessian-Aware Pruning and Optimal Neural Implant [74.3282611517773]
プルーニングは、ニューラルネットワークモデルに関連するメモリフットプリントとフラップを減らす効果的な方法である。
構造的プルーニングの指標として2次感度を用いたニューラルインプラントアプローチと組み合わされた新しいヘッセン認識プルーニング法を提案する。
論文 参考訳(メタデータ) (2021-01-22T04:08:03Z) - ACP: Automatic Channel Pruning via Clustering and Swarm Intelligence
Optimization for CNN [6.662639002101124]
近年、畳み込みニューラルネットワーク(CNN)はより深く広がっています。
既存のマグニチュードベースの切断方法は効率的ですが、圧縮ネットワークのパフォーマンスは予測不可能です。
新規な自動チャネル切断法(ACP)を提案する。
ACPは3つの異なる分類データセットに基づいていくつかの最先端CNNに対して評価される。
論文 参考訳(メタデータ) (2021-01-16T08:56:38Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z) - Pre-defined Sparsity for Low-Complexity Convolutional Neural Networks [9.409651543514615]
この研究は、フィルタ内で定期的に繰り返されるサポートセットを持つ、事前に定義されたスパース2Dカーネルを持つ畳み込みレイヤを導入している。
周期的なスパースカーネルの効率的な保存のため、パラメータの節約はエネルギー効率を大幅に向上させることができる。
論文 参考訳(メタデータ) (2020-01-29T07:10:56Z) - Filter Sketch for Network Pruning [184.41079868885265]
事前学習したネットワーク重み(フィルタ)の情報保存による新しいネットワークプルーニング手法を提案する。
われわれのアプローチは、FilterSketchと呼ばれ、事前訓練された重みの2次情報を符号化する。
CIFAR-10の実験では、FilterSketchはFLOPの63.3%を削減し、ネットワークパラメータの59.9%を無視できる精度で削減している。
論文 参考訳(メタデータ) (2020-01-23T13:57:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。