論文の概要: Batch Normalization Tells You Which Filter is Important
- arxiv url: http://arxiv.org/abs/2112.01155v1
- Date: Thu, 2 Dec 2021 12:04:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 14:04:42.635523
- Title: Batch Normalization Tells You Which Filter is Important
- Title(参考訳): どのフィルターが重要か、バッチ正規化が教えてくれる
- Authors: Junghun Oh, Heewon Kim, Sungyong Baik, Cheeun Hong and Kyoung Mu Lee
- Abstract要約: 我々は,事前学習したCNNのBNパラメータに基づいて,各フィルタの重要性を評価することによって,簡易かつ効果的なフィルタ刈取法を提案する。
CIFAR-10とImageNetの実験結果から,提案手法が優れた性能を発揮することを示す。
- 参考スコア(独自算出の注目度): 49.903610684578716
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The goal of filter pruning is to search for unimportant filters to remove in
order to make convolutional neural networks (CNNs) efficient without
sacrificing the performance in the process. The challenge lies in finding
information that can help determine how important or relevant each filter is
with respect to the final output of neural networks. In this work, we share our
observation that the batch normalization (BN) parameters of pre-trained CNNs
can be used to estimate the feature distribution of activation outputs, without
processing of training data. Upon observation, we propose a simple yet
effective filter pruning method by evaluating the importance of each filter
based on the BN parameters of pre-trained CNNs. The experimental results on
CIFAR-10 and ImageNet demonstrate that the proposed method can achieve
outstanding performance with and without fine-tuning in terms of the trade-off
between the accuracy drop and the reduction in computational complexity and
number of parameters of pruned networks.
- Abstract(参考訳): フィルタプルーニングの目標は、プロセスのパフォーマンスを犠牲にすることなく、畳み込みニューラルネットワーク(CNN)を効率よくするために、重要でないフィルタを除去することである。
課題は、ニューラルネットワークの最終出力に対して各フィルタがどの程度重要か、あるいはどの程度関連があるかを決定するのに役立つ情報を見つけることである。
本稿では,事前学習されたcnnのバッチ正規化(bn)パラメータを用いて,トレーニングデータの処理をせずに,アクティベーション出力の特徴分布を推定できることについて考察する。
そこで本研究では,事前学習したcnnのbnパラメータに基づいて各フィルタの重要性を評価し,簡易かつ効果的なフィルタプルーニング手法を提案する。
CIFAR-10 と ImageNet の実験結果から,提案手法は精度低下と計算複雑性の低減,およびプルーンドネットワークのパラメータ数とのトレードオフを微調整することなく,優れた性能を実現することができることを示した。
関連論文リスト
- Structured Network Pruning by Measuring Filter-wise Interactions [6.037167142826297]
SNPFI (Structured Network Pruning by Measurement filter-wise Interaction) を用いた構造化ネットワークプルーニング手法を提案する。
刈取中、SNPFIはフィルタ利用強度に基づいて適切な間隔を自動的に割り当てる。
我々はSNPFIの有効性をいくつかの一般的なCNNモデルで実証的に実証した。
論文 参考訳(メタデータ) (2023-07-03T05:26:05Z) - Efficient CNNs via Passive Filter Pruning [23.661189257759535]
畳み込みニューラルネットワーク(CNN)は、様々なアプリケーションで最先端のパフォーマンスを示している。
CNNは、高い計算複雑性とメモリストレージを必要とするため、リソース不足である。
CNNにおける計算効率向上に向けた最近の取り組みには、フィルタプルーニング法がある。
論文 参考訳(メタデータ) (2023-04-05T09:19:19Z) - Asymptotic Soft Cluster Pruning for Deep Neural Networks [5.311178623385279]
フィルタプルーニング法は, 選択したフィルタを除去することにより, 構造的疎結合を導入する。
Asymptotic Soft Cluster Pruning と呼ばれる新しいフィルタプルーニング法を提案する。
提案手法は,多くの最先端アルゴリズムと比較して,競合的な結果が得られる。
論文 参考訳(メタデータ) (2022-06-16T13:58:58Z) - A Passive Similarity based CNN Filter Pruning for Efficient Acoustic
Scene Classification [23.661189257759535]
音響シーン分類(ASC)のための低複雑さ畳み込みニューラルネットワーク(CNN)の開発手法を提案する。
本稿では,CNNからの畳み込みフィルタを除去し,圧縮したCNNを生成するパッシブ・フィルタ・プルーニング・フレームワークを提案する。
提案手法は単純で,パラメータが25%少なく,精度が1%以下で,推論当たりの計算量を27%削減する。
論文 参考訳(メタデータ) (2022-03-29T17:00:06Z) - Unsharp Mask Guided Filtering [53.14430987860308]
本論文の目的は,フィルタ中の構造伝達の重要性を強調した画像フィルタリングである。
アンシャープマスキングにインスパイアされたガイドフィルタの新しい簡易な定式化を提案する。
我々の定式化は低域フィルタに先立ってフィルタを楽しみ、単一の係数を推定することで明示的な構造伝達を可能にする。
論文 参考訳(メタデータ) (2021-06-02T19:15:34Z) - Data Agnostic Filter Gating for Efficient Deep Networks [72.4615632234314]
現在のフィルタプルーニング法は主に特徴写像を利用してフィルタの重要なスコアを生成し、より小さなスコアのプルーンを生成する。
本稿では,Daggerモジュールと呼ばれる補助的ネットワークを用いてプルーニングを誘導するデータフィルタプルーニング手法を提案する。
さらに,特定のFLOP制約でプルーネフィルタを支援するために,明示的なFLOPを意識した正規化を活用して,プルーニングフィルタを直接対象のFLOPに向けて推進する。
論文 参考訳(メタデータ) (2020-10-28T15:26:40Z) - Dependency Aware Filter Pruning [74.69495455411987]
重要でないフィルタを割ることは、推論コストを軽減するための効率的な方法である。
以前の作業は、その重み基準やそれに対応するバッチノームスケーリング要因に従ってフィルタをプルークする。
所望の空間性を達成するために,空間性誘導正規化を動的に制御する機構を提案する。
論文 参考訳(メタデータ) (2020-05-06T07:41:22Z) - Filter Grafting for Deep Neural Networks: Reason, Method, and
Cultivation [86.91324735966766]
フィルタは現代の畳み込みニューラルネットワーク(CNN)のキーコンポーネントである
本稿では,この目的を達成するためにフィルタグラフト(textbfMethod)を導入する。
我々は,フィルタの情報を測定するための新しい基準と,グラフトされた情報をネットワーク間でバランスをとるための適応重み付け戦略を開発する。
論文 参考訳(メタデータ) (2020-04-26T08:36:26Z) - Filter Grafting for Deep Neural Networks [71.39169475500324]
ディープニューラルネットワーク(DNN)の表現能力向上を目的としたフィルタグラフト
我々は,フィルタの情報を測定するエントロピーベースの基準と,ネットワーク間のグラフト情報のバランスをとるための適応重み付け戦略を開発する。
例えば、グラフトされたMobileNetV2は、CIFAR-100データセットで非グラフトされたMobileNetV2を約7%上回っている。
論文 参考訳(メタデータ) (2020-01-15T03:18:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。