論文の概要: Pruning by Active Attention Manipulation
- arxiv url: http://arxiv.org/abs/2210.11114v1
- Date: Thu, 20 Oct 2022 09:17:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 13:14:20.293034
- Title: Pruning by Active Attention Manipulation
- Title(参考訳): アクティブアテンション操作によるプルーニング
- Authors: Zahra Babaiee, Lucas Liebenwein, Ramin Hasani, Daniela Rus, Radu Grosu
- Abstract要約: CNNのフィルタプルーニングは典型的には、CNNのフィルタ重みやアクティベーションマップに離散マスクを適用することで達成される。
ここでは、アクティブアテンション操作(PAAM)によるプルーニング(pruning)という新しいフィルタ強調表示概念を提案する。
PAAMはフィルタ重みからアナログフィルタスコアを学習し、そのスコアの加算項によって正規化されたコスト関数を最適化する。
- 参考スコア(独自算出の注目度): 49.61707925611295
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Filter pruning of a CNN is typically achieved by applying discrete masks on
the CNN's filter weights or activation maps, post-training. Here, we present a
new filter-importance-scoring concept named pruning by active attention
manipulation (PAAM), that sparsifies the CNN's set of filters through a
particular attention mechanism, during-training. PAAM learns analog filter
scores from the filter weights by optimizing a cost function regularized by an
additive term in the scores. As the filters are not independent, we use
attention to dynamically learn their correlations. Moreover, by training the
pruning scores of all layers simultaneously, PAAM can account for layer
inter-dependencies, which is essential to finding a performant sparse
sub-network. PAAM can also train and generate a pruned network from scratch in
a straightforward, one-stage training process without requiring a pre-trained
network. Finally, PAAM does not need layer-specific hyperparameters and
pre-defined layer budgets, since it can implicitly determine the appropriate
number of filters in each layer. Our experimental results on different network
architectures suggest that PAAM outperforms state-of-the-art structured-pruning
methods (SOTA). On CIFAR-10 dataset, without requiring a pre-trained baseline
network, we obtain 1.02% and 1.19% accuracy gain and 52.3% and 54% parameters
reduction, on ResNet56 and ResNet110, respectively. Similarly, on the ImageNet
dataset, PAAM achieves 1.06% accuracy gain while pruning 51.1% of the
parameters on ResNet50. For Cifar-10, this is better than the SOTA with a
margin of 9.5% and 6.6%, respectively, and on ImageNet with a margin of 11%.
- Abstract(参考訳): CNNのフィルタプルーニングは典型的には、CNNのフィルタ重みやアクティベーションマップに離散マスクを適用することで達成される。
本稿では,pruning by active attention manipulation(paam)という,cnnのフィルタセットを訓練中に特定の注意機構を通じてスパースする新しいフィルタ-importance-scoringコンセプトを提案する。
PAAMはフィルタ重みからアナログフィルタスコアを学習し、スコアの加算項によって正規化されたコスト関数を最適化する。
フィルタは独立ではないので、注意を向けてその相関関係を動的に学習する。
さらに、すべてのレイヤのプルーニングスコアを同時にトレーニングすることにより、PAAMは、パフォーマンスの低いサブネットワークを見つける上で必須の層間依存関係を説明できる。
paamはまた、事前訓練されたネットワークを必要とせずに、簡単なワンステージトレーニングプロセスで、スクラッチからprunedネットワークをトレーニングおよび生成することもできる。
最後に、PAAMは各レイヤにおける適切なフィルタ数を暗黙的に決定できるため、レイヤ固有のハイパーパラメータや事前定義されたレイヤ予算を必要としない。
異なるネットワークアーキテクチャにおける実験結果から,PAAMは最先端構造解析法(SOTA)より優れていることが示唆された。
CIFAR-10データセットでは、トレーニング済みのベースラインネットワークを必要とせず、それぞれ ResNet56 と ResNet110 で 1.02% と 1.19% の精度向上と52.3% と 54% のパラメータ削減が得られる。
同様に、ImageNetデータセット上でPAAMは、ResNet50上のパラメータの51.1%をプルーニングしながら、1.06%の精度向上を達成した。
Cifar-10 では、それぞれ 9.5% と 6.6% のSOTA と 11% の ImageNet より優れている。
関連論文リスト
- Structured Network Pruning by Measuring Filter-wise Interactions [6.037167142826297]
SNPFI (Structured Network Pruning by Measurement filter-wise Interaction) を用いた構造化ネットワークプルーニング手法を提案する。
刈取中、SNPFIはフィルタ利用強度に基づいて適切な間隔を自動的に割り当てる。
我々はSNPFIの有効性をいくつかの一般的なCNNモデルで実証的に実証した。
論文 参考訳(メタデータ) (2023-07-03T05:26:05Z) - End-to-End Sensitivity-Based Filter Pruning [49.61707925611295]
本稿では,各層間のフィルタの重要度を学習するための感度に基づくフィルタプルーニングアルゴリズム(SbF-Pruner)を提案する。
提案手法はフィルタ重みからスコアを学習し,各層のフィルタ間の相関を考慮できる。
論文 参考訳(メタデータ) (2022-04-15T10:21:05Z) - Pruning Networks with Cross-Layer Ranking & k-Reciprocal Nearest Filters [151.2423480789271]
フィルタレベルのネットワークプルーニングには,CLR-RNFと呼ばれる新しいプルーニング法が提案されている。
我々は,CIFAR-10 と ImageNet で画像分類を行い,CLR-RNF が最先端技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-02-15T04:53:24Z) - Batch Normalization Tells You Which Filter is Important [49.903610684578716]
我々は,事前学習したCNNのBNパラメータに基づいて,各フィルタの重要性を評価することによって,簡易かつ効果的なフィルタ刈取法を提案する。
CIFAR-10とImageNetの実験結果から,提案手法が優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2021-12-02T12:04:59Z) - Training Compact CNNs for Image Classification using Dynamic-coded
Filter Fusion [139.71852076031962]
動的符号化フィルタ融合(DCFF)と呼ばれる新しいフィルタプルーニング法を提案する。
我々は、効率的な画像分類のために、計算経済的および正規化のない方法でコンパクトなCNNを導出する。
我々のDCFFは、72.77MのFLOPと1.06Mのパラメータしか持たないコンパクトなVGGNet-16を導出し、トップ1の精度は93.47%に達した。
論文 参考訳(メタデータ) (2021-07-14T18:07:38Z) - Data Agnostic Filter Gating for Efficient Deep Networks [72.4615632234314]
現在のフィルタプルーニング法は主に特徴写像を利用してフィルタの重要なスコアを生成し、より小さなスコアのプルーンを生成する。
本稿では,Daggerモジュールと呼ばれる補助的ネットワークを用いてプルーニングを誘導するデータフィルタプルーニング手法を提案する。
さらに,特定のFLOP制約でプルーネフィルタを支援するために,明示的なFLOPを意識した正規化を活用して,プルーニングフィルタを直接対象のFLOPに向けて推進する。
論文 参考訳(メタデータ) (2020-10-28T15:26:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。