論文の概要: Pruning CNN's with linear filter ensembles
- arxiv url: http://arxiv.org/abs/2001.08142v2
- Date: Tue, 3 Mar 2020 09:25:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 17:44:31.088631
- Title: Pruning CNN's with linear filter ensembles
- Title(参考訳): 線形フィルタアンサンブルを用いたCNNのプルーニング
- Authors: Csan\'ad S\'andor, Szabolcs P\'avel, Lehel Csat\'o
- Abstract要約: ネットワークサイズを減らし、(暗黙的に)浮動小数点演算(FLOP)の数を減らすためにプルーニングを使用します。
本稿では,ネットワークアーキテクチャからコンポーネントの存在や削除によって生じる経験的損失の変化に基づく,新しいフィルタ重要基準を開発する。
我々は,CIFAR-10データセットに基づいてトレーニングしたResNetアーキテクチャと同様に,完全に接続されたネットワーク上で本手法を評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the promising results of convolutional neural networks (CNNs), their
application on devices with limited resources is still a big challenge; this is
mainly due to the huge memory and computation requirements of the CNN. To
counter the limitation imposed by the network size, we use pruning to reduce
the network size and -- implicitly -- the number of floating point operations
(FLOPs). Contrary to the filter norm method -- used in ``conventional`` network
pruning -- based on the assumption that a smaller norm implies ``less
importance'' to its associated component, we develop a novel filter importance
norm that is based on the change in the empirical loss caused by the presence
or removal of a component from the network architecture.
Since there are too many individual possibilities for filter configuration,
we repeatedly sample from these architectural components and measure the system
performance in the respective state of components being active or disabled. The
result is a collection of filter ensembles -- filter masks -- and associated
performance values. We rank the filters based on a linear and additive model
and remove the least important ones such that the drop in network accuracy is
minimal. We evaluate our method on a fully connected network, as well as on the
ResNet architecture trained on the CIFAR-10 dataset. Using our pruning method,
we managed to remove $60\%$ of the parameters and $64\%$ of the FLOPs from the
ResNet with an accuracy drop of less than $0.6\%$.
- Abstract(参考訳): convolutional neural networks(cnns)の有望な成果にもかかわらず、リソースが限られているデバイスへの彼らの応用は依然として大きな課題である。
ネットワークサイズによって課される制限に対抗するために、pruningを使ってネットワークサイズを削減し、暗黙的に -- 浮動小数点演算(flops)の数を削減します。
ネットワーク・プルーニング(ネットワーク・プルーニング)で使用されるフィルタ・ノルム法とは対照的に、より小さいノルムが関連するコンポーネントに「無重要性」を意味するという仮定に基づいて、ネットワーク・アーキテクチャからコンポーネントの有無や削除による経験的損失の変化に基づく新しいフィルタ・重要度ノルムを開発する。
フィルタ構成には個別の可能性が多すぎるため、これらのアーキテクチャコンポーネントから繰り返しサンプリングし、各コンポーネントがアクティブまたは無効である状態におけるシステムパフォーマンスを測定します。
その結果は、フィルタアンサンブル -- フィルタマスク -- と関連するパフォーマンス値の集合である。
フィルタを線形および加法モデルに基づいてランク付けし,ネットワーク精度の低下を最小限に抑えるために最重要でないフィルタを除去した。
提案手法は,cifar-10データセット上でトレーニングされたresnetアーキテクチャと同様に,完全接続ネットワーク上で評価する。
プルーニング法を用いて、パラメータの60\%$とフロップの64\%$をresnetから、精度が0.6\%$未満で削除することに成功しました。
関連論文リスト
- Deep Network Pruning: A Comparative Study on CNNs in Face Recognition [47.114282145442616]
顔認識に応用したディープネットワーク圧縮法について検討する。
この方法は、SqueezeNet(1.24Mパラメータ)と人気のあるMobileNetv2(3.5M)とResNet50(23.5M)の3つのネットワーク上でテストされる。
フィルタのかなりの割合は、性能損失を最小限に抑えて取り除くことができる。
論文 参考訳(メタデータ) (2024-05-28T15:57:58Z) - Structured Network Pruning by Measuring Filter-wise Interactions [6.037167142826297]
SNPFI (Structured Network Pruning by Measurement filter-wise Interaction) を用いた構造化ネットワークプルーニング手法を提案する。
刈取中、SNPFIはフィルタ利用強度に基づいて適切な間隔を自動的に割り当てる。
我々はSNPFIの有効性をいくつかの一般的なCNNモデルで実証的に実証した。
論文 参考訳(メタデータ) (2023-07-03T05:26:05Z) - Efficient CNNs via Passive Filter Pruning [23.661189257759535]
畳み込みニューラルネットワーク(CNN)は、様々なアプリケーションで最先端のパフォーマンスを示している。
CNNは、高い計算複雑性とメモリストレージを必要とするため、リソース不足である。
CNNにおける計算効率向上に向けた最近の取り組みには、フィルタプルーニング法がある。
論文 参考訳(メタデータ) (2023-04-05T09:19:19Z) - Interspace Pruning: Using Adaptive Filter Representations to Improve
Training of Sparse CNNs [69.3939291118954]
非構造プルーニングは畳み込みニューラルネットワーク(CNN)のメモリフットプリントを削減するのに適している
標準非構造化プルーニング(SP)はフィルタ要素をゼロにすることでCNNのメモリフットプリントを削減する。
既存のプルーニング法を改善する汎用ツールであるインタースペースプルーニング(IP)を導入する。
論文 参考訳(メタデータ) (2022-03-15T11:50:45Z) - Batch Normalization Tells You Which Filter is Important [49.903610684578716]
我々は,事前学習したCNNのBNパラメータに基づいて,各フィルタの重要性を評価することによって,簡易かつ効果的なフィルタ刈取法を提案する。
CIFAR-10とImageNetの実験結果から,提案手法が優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2021-12-02T12:04:59Z) - Deep Model Compression based on the Training History [13.916984628784768]
本稿では,ネットワークトレーニング履歴をフィルタプルーニングに用いるヒストリベースフィルタプルーニング手法を提案する。
提案手法は, LeNet-5, VGG-16, ResNet-56, ResNet-110 の各モデルに対して, FLOPs の 97.98%, 83.42%, 78.43%, 74.95% を削減した。
論文 参考訳(メタデータ) (2021-01-30T06:04:21Z) - Data Agnostic Filter Gating for Efficient Deep Networks [72.4615632234314]
現在のフィルタプルーニング法は主に特徴写像を利用してフィルタの重要なスコアを生成し、より小さなスコアのプルーンを生成する。
本稿では,Daggerモジュールと呼ばれる補助的ネットワークを用いてプルーニングを誘導するデータフィルタプルーニング手法を提案する。
さらに,特定のFLOP制約でプルーネフィルタを支援するために,明示的なFLOPを意識した正規化を活用して,プルーニングフィルタを直接対象のFLOPに向けて推進する。
論文 参考訳(メタデータ) (2020-10-28T15:26:40Z) - Dependency Aware Filter Pruning [74.69495455411987]
重要でないフィルタを割ることは、推論コストを軽減するための効率的な方法である。
以前の作業は、その重み基準やそれに対応するバッチノームスケーリング要因に従ってフィルタをプルークする。
所望の空間性を達成するために,空間性誘導正規化を動的に制御する機構を提案する。
論文 参考訳(メタデータ) (2020-05-06T07:41:22Z) - Filter Grafting for Deep Neural Networks: Reason, Method, and
Cultivation [86.91324735966766]
フィルタは現代の畳み込みニューラルネットワーク(CNN)のキーコンポーネントである
本稿では,この目的を達成するためにフィルタグラフト(textbfMethod)を導入する。
我々は,フィルタの情報を測定するための新しい基準と,グラフトされた情報をネットワーク間でバランスをとるための適応重み付け戦略を開発する。
論文 参考訳(メタデータ) (2020-04-26T08:36:26Z) - Filter Grafting for Deep Neural Networks [71.39169475500324]
ディープニューラルネットワーク(DNN)の表現能力向上を目的としたフィルタグラフト
我々は,フィルタの情報を測定するエントロピーベースの基準と,ネットワーク間のグラフト情報のバランスをとるための適応重み付け戦略を開発する。
例えば、グラフトされたMobileNetV2は、CIFAR-100データセットで非グラフトされたMobileNetV2を約7%上回っている。
論文 参考訳(メタデータ) (2020-01-15T03:18:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。