論文の概要: Convolutional Neural Network Pruning Using Filter Attenuation
- arxiv url: http://arxiv.org/abs/2002.03299v1
- Date: Sun, 9 Feb 2020 06:31:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 14:44:45.197459
- Title: Convolutional Neural Network Pruning Using Filter Attenuation
- Title(参考訳): フィルタ減衰を用いた畳み込みニューラルネットワークのプルーニング
- Authors: Morteza Mousa-Pasandi, Mohsen Hajabdollahi, Nader Karimi, Shadrokh
Samavi, Shahram Shirani
- Abstract要約: 畳み込みニューラルネットワーク(CNN)におけるフィルタは必須要素である
フィルタプルーニング法では、チャネルや接続を含む全てのコンポーネントを持つフィルタが除去される。
弱いフィルタを直接除去しないフィルタ減衰に基づくCNNプルーニング手法を提案する。
- 参考スコア(独自算出の注目度): 10.282782377635106
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Filters are the essential elements in convolutional neural networks (CNNs).
Filters are corresponded to the feature maps and form the main part of the
computational and memory requirement for the CNN processing. In filter pruning
methods, a filter with all of its components, including channels and
connections, are removed. The removal of a filter can cause a drastic change in
the network's performance. Also, the removed filters cannot come back to the
network structure. We want to address these problems in this paper. We propose
a CNN pruning method based on filter attenuation in which weak filters are not
directly removed. Instead, weak filters are attenuated and gradually removed.
In the proposed attenuation approach, weak filters are not abruptly removed,
and there is a chance for these filters to return to the network. The filter
attenuation method is assessed using the VGG model for the Cifar10 image
classification task. Simulation results show that the filter attenuation works
with different pruning criteria, and better results are obtained in comparison
with the conventional pruning methods.
- Abstract(参考訳): フィルタは畳み込みニューラルネットワーク(CNN)の重要な要素である。
フィルタは特徴マップに対応し、cnn処理の計算およびメモリ要件の主要部分を形成する。
フィルタプルーニング法では、チャネルや接続を含む全てのコンポーネントを持つフィルタが除去される。
フィルタの除去は、ネットワークの性能を大幅に変化させる可能性がある。
また、削除されたフィルタはネットワーク構造に戻ることができない。
この論文でこれらの問題に対処したい。
本稿では,弱いフィルタを直接除去しないフィルタ減衰に基づくcnnプルーニング法を提案する。
代わりに弱いフィルタは減衰し、徐々に除去される。
提案手法では、弱フィルタは突然除去されず、これらのフィルタがネットワークに復帰する可能性がある。
フィルタ減衰法は,Cifar10画像分類タスクのVGGモデルを用いて評価する。
シミュレーションの結果, フィルタ減衰は異なるプルーニング基準で動作し, 従来のプルーニング法と比較して良好な結果を得た。
関連論文リスト
- Structured Network Pruning by Measuring Filter-wise Interactions [6.037167142826297]
SNPFI (Structured Network Pruning by Measurement filter-wise Interaction) を用いた構造化ネットワークプルーニング手法を提案する。
刈取中、SNPFIはフィルタ利用強度に基づいて適切な間隔を自動的に割り当てる。
我々はSNPFIの有効性をいくつかの一般的なCNNモデルで実証的に実証した。
論文 参考訳(メタデータ) (2023-07-03T05:26:05Z) - Efficient CNNs via Passive Filter Pruning [23.661189257759535]
畳み込みニューラルネットワーク(CNN)は、様々なアプリケーションで最先端のパフォーマンスを示している。
CNNは、高い計算複雑性とメモリストレージを必要とするため、リソース不足である。
CNNにおける計算効率向上に向けた最近の取り組みには、フィルタプルーニング法がある。
論文 参考訳(メタデータ) (2023-04-05T09:19:19Z) - IterativePFN: True Iterative Point Cloud Filtering [18.51768749680731]
基本的な3Dビジョンタスクは、ポイントクラウドフィルタリング(point cloud filtering)またはデノイング(denoising)として知られるノイズの除去である。
本報告では,本フィルタを内部でモデル化する複数のイテレーションで構成されたIterativePFN(Iterative Cloud Filtering Network)を提案する。
我々の手法は最先端の手法よりも優れた性能が得られる。
論文 参考訳(メタデータ) (2023-04-04T04:47:44Z) - Pruning Networks with Cross-Layer Ranking & k-Reciprocal Nearest Filters [151.2423480789271]
フィルタレベルのネットワークプルーニングには,CLR-RNFと呼ばれる新しいプルーニング法が提案されている。
我々は,CIFAR-10 と ImageNet で画像分類を行い,CLR-RNF が最先端技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-02-15T04:53:24Z) - Batch Normalization Tells You Which Filter is Important [49.903610684578716]
我々は,事前学習したCNNのBNパラメータに基づいて,各フィルタの重要性を評価することによって,簡易かつ効果的なフィルタ刈取法を提案する。
CIFAR-10とImageNetの実験結果から,提案手法が優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2021-12-02T12:04:59Z) - Unsharp Mask Guided Filtering [53.14430987860308]
本論文の目的は,フィルタ中の構造伝達の重要性を強調した画像フィルタリングである。
アンシャープマスキングにインスパイアされたガイドフィルタの新しい簡易な定式化を提案する。
我々の定式化は低域フィルタに先立ってフィルタを楽しみ、単一の係数を推定することで明示的な構造伝達を可能にする。
論文 参考訳(メタデータ) (2021-06-02T19:15:34Z) - Data Agnostic Filter Gating for Efficient Deep Networks [72.4615632234314]
現在のフィルタプルーニング法は主に特徴写像を利用してフィルタの重要なスコアを生成し、より小さなスコアのプルーンを生成する。
本稿では,Daggerモジュールと呼ばれる補助的ネットワークを用いてプルーニングを誘導するデータフィルタプルーニング手法を提案する。
さらに,特定のFLOP制約でプルーネフィルタを支援するために,明示的なFLOPを意識した正規化を活用して,プルーニングフィルタを直接対象のFLOPに向けて推進する。
論文 参考訳(メタデータ) (2020-10-28T15:26:40Z) - Filter Grafting for Deep Neural Networks: Reason, Method, and
Cultivation [86.91324735966766]
フィルタは現代の畳み込みニューラルネットワーク(CNN)のキーコンポーネントである
本稿では,この目的を達成するためにフィルタグラフト(textbfMethod)を導入する。
我々は,フィルタの情報を測定するための新しい基準と,グラフトされた情報をネットワーク間でバランスをとるための適応重み付け戦略を開発する。
論文 参考訳(メタデータ) (2020-04-26T08:36:26Z) - Filter Grafting for Deep Neural Networks [71.39169475500324]
ディープニューラルネットワーク(DNN)の表現能力向上を目的としたフィルタグラフト
我々は,フィルタの情報を測定するエントロピーベースの基準と,ネットワーク間のグラフト情報のバランスをとるための適応重み付け戦略を開発する。
例えば、グラフトされたMobileNetV2は、CIFAR-100データセットで非グラフトされたMobileNetV2を約7%上回っている。
論文 参考訳(メタデータ) (2020-01-15T03:18:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。