論文の概要: Efficient CNNs via Passive Filter Pruning
- arxiv url: http://arxiv.org/abs/2304.02319v1
- Date: Wed, 5 Apr 2023 09:19:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-06 13:03:03.690476
- Title: Efficient CNNs via Passive Filter Pruning
- Title(参考訳): パッシブフィルタを用いた効率的なCNN
- Authors: Arshdeep Singh and Mark D. Plumbley
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、様々なアプリケーションで最先端のパフォーマンスを示している。
CNNは、高い計算複雑性とメモリストレージを必要とするため、リソース不足である。
CNNにおける計算効率向上に向けた最近の取り組みには、フィルタプルーニング法がある。
- 参考スコア(独自算出の注目度): 23.661189257759535
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional neural networks (CNNs) have shown state-of-the-art performance
in various applications. However, CNNs are resource-hungry due to their
requirement of high computational complexity and memory storage. Recent efforts
toward achieving computational efficiency in CNNs involve filter pruning
methods that eliminate some of the filters in CNNs based on the
\enquote{importance} of the filters. The majority of existing filter pruning
methods are either "active", which use a dataset and generate feature maps to
quantify filter importance, or "passive", which compute filter importance using
entry-wise norm of the filters without involving data. Under a high pruning
ratio where large number of filters are to be pruned from the network, the
entry-wise norm methods eliminate relatively smaller norm filters without
considering the significance of the filters in producing the node output,
resulting in degradation in the performance. To address this, we present a
passive filter pruning method where the filters are pruned based on their
contribution in producing output by considering the operator norm of the
filters. The proposed pruning method generalizes better across various CNNs
compared to that of the entry-wise norm-based pruning methods. In comparison to
the existing active filter pruning methods, the proposed pruning method is at
least 4.5 times faster in computing filter importance and is able to achieve
similar performance compared to that of the active filter pruning methods. The
efficacy of the proposed pruning method is evaluated on audio scene
classification and image classification using various CNNs architecture such as
VGGish, DCASE21_Net, VGG-16 and ResNet-50.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、様々なアプリケーションで最先端のパフォーマンスを示している。
しかし、CNNは高い計算複雑性とメモリストレージを必要とするため、リソース不足である。
CNNにおける計算効率向上に向けた最近の取り組みは、フィルタの'enquote{importance'に基づいて、CNNにおけるフィルタの一部を除去するフィルタプルーニング手法を含む。
既存のフィルタプルーニング手法の大半は、データセットを使用してフィルタの重要性を定量化するための特徴マップを生成する"アクティブ"か、あるいはデータを含まないフィルタのエントリワイドノルムを用いてフィルタの重要性を計算する"パッシブ"のいずれかである。
ネットワークから多数のフィルタをプルーニングする高いプルーニング比の下では、エントリワイドノルム法は、ノード出力を生成する際のフィルタの重要性を考慮せずに比較的小さなノルムフィルタを除去し、性能を低下させる。
そこで本研究では,フィルタの演算ノルムを考慮し,その出力に対する寄与に基づいてフィルタをプルーニングするパッシブフィルタプルーニング手法を提案する。
提案手法は, エントリーワイドノルムベースプルーニング法と比較して, 様々なCNNをまたいだ最適化を行う。
従来のアクティブフィルタプルーニング法と比較して,提案法はフィルタ重要度を少なくとも4.5倍高速化し,アクティブフィルタプルーニング法と同等の性能を実現することができる。
提案手法の有効性は,VGGish,DCASE21_Net,VGG-16,ResNet-50などの様々なCNNアーキテクチャを用いて,音声シーンの分類と画像分類に基づいて評価する。
関連論文リスト
- Structured Network Pruning by Measuring Filter-wise Interactions [6.037167142826297]
SNPFI (Structured Network Pruning by Measurement filter-wise Interaction) を用いた構造化ネットワークプルーニング手法を提案する。
刈取中、SNPFIはフィルタ利用強度に基づいて適切な間隔を自動的に割り当てる。
我々はSNPFIの有効性をいくつかの一般的なCNNモデルで実証的に実証した。
論文 参考訳(メタデータ) (2023-07-03T05:26:05Z) - Batch Normalization Tells You Which Filter is Important [49.903610684578716]
我々は,事前学習したCNNのBNパラメータに基づいて,各フィルタの重要性を評価することによって,簡易かつ効果的なフィルタ刈取法を提案する。
CIFAR-10とImageNetの実験結果から,提案手法が優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2021-12-02T12:04:59Z) - Training Compact CNNs for Image Classification using Dynamic-coded
Filter Fusion [139.71852076031962]
動的符号化フィルタ融合(DCFF)と呼ばれる新しいフィルタプルーニング法を提案する。
我々は、効率的な画像分類のために、計算経済的および正規化のない方法でコンパクトなCNNを導出する。
我々のDCFFは、72.77MのFLOPと1.06Mのパラメータしか持たないコンパクトなVGGNet-16を導出し、トップ1の精度は93.47%に達した。
論文 参考訳(メタデータ) (2021-07-14T18:07:38Z) - Data Agnostic Filter Gating for Efficient Deep Networks [72.4615632234314]
現在のフィルタプルーニング法は主に特徴写像を利用してフィルタの重要なスコアを生成し、より小さなスコアのプルーンを生成する。
本稿では,Daggerモジュールと呼ばれる補助的ネットワークを用いてプルーニングを誘導するデータフィルタプルーニング手法を提案する。
さらに,特定のFLOP制約でプルーネフィルタを支援するために,明示的なFLOPを意識した正規化を活用して,プルーニングフィルタを直接対象のFLOPに向けて推進する。
論文 参考訳(メタデータ) (2020-10-28T15:26:40Z) - Dependency Aware Filter Pruning [74.69495455411987]
重要でないフィルタを割ることは、推論コストを軽減するための効率的な方法である。
以前の作業は、その重み基準やそれに対応するバッチノームスケーリング要因に従ってフィルタをプルークする。
所望の空間性を達成するために,空間性誘導正規化を動的に制御する機構を提案する。
論文 参考訳(メタデータ) (2020-05-06T07:41:22Z) - Filter Grafting for Deep Neural Networks: Reason, Method, and
Cultivation [86.91324735966766]
フィルタは現代の畳み込みニューラルネットワーク(CNN)のキーコンポーネントである
本稿では,この目的を達成するためにフィルタグラフト(textbfMethod)を導入する。
我々は,フィルタの情報を測定するための新しい基準と,グラフトされた情報をネットワーク間でバランスをとるための適応重み付け戦略を開発する。
論文 参考訳(メタデータ) (2020-04-26T08:36:26Z) - Convolutional Neural Network Pruning Using Filter Attenuation [10.282782377635106]
畳み込みニューラルネットワーク(CNN)におけるフィルタは必須要素である
フィルタプルーニング法では、チャネルや接続を含む全てのコンポーネントを持つフィルタが除去される。
弱いフィルタを直接除去しないフィルタ減衰に基づくCNNプルーニング手法を提案する。
論文 参考訳(メタデータ) (2020-02-09T06:31:24Z) - Filter Grafting for Deep Neural Networks [71.39169475500324]
ディープニューラルネットワーク(DNN)の表現能力向上を目的としたフィルタグラフト
我々は,フィルタの情報を測定するエントロピーベースの基準と,ネットワーク間のグラフト情報のバランスをとるための適応重み付け戦略を開発する。
例えば、グラフトされたMobileNetV2は、CIFAR-100データセットで非グラフトされたMobileNetV2を約7%上回っている。
論文 参考訳(メタデータ) (2020-01-15T03:18:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。