論文の概要: A Passive Similarity based CNN Filter Pruning for Efficient Acoustic
Scene Classification
- arxiv url: http://arxiv.org/abs/2203.15751v1
- Date: Tue, 29 Mar 2022 17:00:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-30 13:34:05.299787
- Title: A Passive Similarity based CNN Filter Pruning for Efficient Acoustic
Scene Classification
- Title(参考訳): 高能率音響シーン分類のためのパッシブ類似性に基づくCNNフィルタプルーニング
- Authors: Arshdeep Singh, Mark D. Plumbley
- Abstract要約: 音響シーン分類(ASC)のための低複雑さ畳み込みニューラルネットワーク(CNN)の開発手法を提案する。
本稿では,CNNからの畳み込みフィルタを除去し,圧縮したCNNを生成するパッシブ・フィルタ・プルーニング・フレームワークを提案する。
提案手法は単純で,パラメータが25%少なく,精度が1%以下で,推論当たりの計算量を27%削減する。
- 参考スコア(独自算出の注目度): 23.661189257759535
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a method to develop low-complexity convolutional neural networks
(CNNs) for acoustic scene classification (ASC). The large size and high
computational complexity of typical CNNs is a bottleneck for their deployment
on resource-constrained devices. We propose a passive filter pruning framework,
where a few convolutional filters from the CNNs are eliminated to yield
compressed CNNs. Our hypothesis is that similar filters produce similar
responses and give redundant information allowing such filters to be eliminated
from the network. To identify similar filters, a cosine distance based greedy
algorithm is proposed. A fine-tuning process is then performed to regain much
of the performance lost due to filter elimination. To perform efficient
fine-tuning, we analyze how the performance varies as the number of fine-tuning
training examples changes. An experimental evaluation of the proposed framework
is performed on the publicly available DCASE 2021 Task 1A baseline network
trained for ASC. The proposed method is simple, reduces computations per
inference by 27%, with 25% fewer parameters, with less than 1% drop in
accuracy.
- Abstract(参考訳): 本稿では,音響シーン分類のための低複雑性畳み込みニューラルネットワーク(CNN)を提案する。
典型的なCNNの大きなサイズと高い計算複雑性は、リソース制約のあるデバイスへの展開のボトルネックとなっている。
本稿では,CNNからの畳み込みフィルタを除去し,圧縮したCNNを生成するパッシブフィルタプルーニングフレームワークを提案する。
我々の仮説では、類似のフィルタが同様の応答を生成し、そのようなフィルタをネットワークから排除できる冗長な情報を与える。
類似フィルタを同定するために,コサイン距離に基づくグリーディアルゴリズムを提案する。
次に微調整処理を行い、フィルタの除去によって失われた性能の多くを取り戻す。
効率的な微調整を行うために,微調整トレーニング例の変更に伴い,性能がどう変化するか分析する。
ASCのためにトレーニングされたDCASE 2021 Task 1Aベースラインネットワーク上で,提案フレームワークの実験的検討を行った。
提案手法は単純で,パラメータが25%少なく,精度が1%以下で,推論当たりの計算量を27%削減する。
関連論文リスト
- Structured Network Pruning by Measuring Filter-wise Interactions [6.037167142826297]
SNPFI (Structured Network Pruning by Measurement filter-wise Interaction) を用いた構造化ネットワークプルーニング手法を提案する。
刈取中、SNPFIはフィルタ利用強度に基づいて適切な間隔を自動的に割り当てる。
我々はSNPFIの有効性をいくつかの一般的なCNNモデルで実証的に実証した。
論文 参考訳(メタデータ) (2023-07-03T05:26:05Z) - Compressing audio CNNs with graph centrality based filter pruning [20.028643659869573]
畳み込みニューラルネットワーク(CNN)は、現実世界の多くの問題に対する高性能なソリューションにおいて一般的な場所である。
CNNには多くのパラメータとフィルタがあり、一部は他のものよりもパフォーマンスに大きな影響を与えている。
我々は,最も高い「共通性」を持つフィルタを除去するプルーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-05T09:38:05Z) - Efficient CNNs via Passive Filter Pruning [23.661189257759535]
畳み込みニューラルネットワーク(CNN)は、様々なアプリケーションで最先端のパフォーマンスを示している。
CNNは、高い計算複雑性とメモリストレージを必要とするため、リソース不足である。
CNNにおける計算効率向上に向けた最近の取り組みには、フィルタプルーニング法がある。
論文 参考訳(メタデータ) (2023-04-05T09:19:19Z) - Efficient Similarity-based Passive Filter Pruning for Compressing CNNs [23.661189257759535]
畳み込みニューラルネットワーク(CNN)は様々なアプリケーションで大きな成功を収めている。
CNNの計算複雑性とメモリストレージは、リソース制約のあるデバイスへのデプロイにおいてボトルネックとなる。
CNNの計算コストとメモリオーバーヘッドを削減しようとする最近の取り組みは、類似性に基づくパッシブフィルタプルーニング手法である。
論文 参考訳(メタデータ) (2022-10-27T09:57:47Z) - Simple Pooling Front-ends For Efficient Audio Classification [56.59107110017436]
入力音声特徴量における時間的冗長性を排除することは,効率的な音声分類に有効な方法である可能性が示唆された。
本稿では、単純な非パラメトリックプーリング操作を用いて冗長な情報を削減する単純なプールフロントエンド(SimPFs)のファミリーを提案する。
SimPFは、市販オーディオニューラルネットワークの浮動小数点演算数の半数以上を削減できる。
論文 参考訳(メタデータ) (2022-10-03T14:00:41Z) - Batch Normalization Tells You Which Filter is Important [49.903610684578716]
我々は,事前学習したCNNのBNパラメータに基づいて,各フィルタの重要性を評価することによって,簡易かつ効果的なフィルタ刈取法を提案する。
CIFAR-10とImageNetの実験結果から,提案手法が優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2021-12-02T12:04:59Z) - Training Compact CNNs for Image Classification using Dynamic-coded
Filter Fusion [139.71852076031962]
動的符号化フィルタ融合(DCFF)と呼ばれる新しいフィルタプルーニング法を提案する。
我々は、効率的な画像分類のために、計算経済的および正規化のない方法でコンパクトなCNNを導出する。
我々のDCFFは、72.77MのFLOPと1.06Mのパラメータしか持たないコンパクトなVGGNet-16を導出し、トップ1の精度は93.47%に達した。
論文 参考訳(メタデータ) (2021-07-14T18:07:38Z) - Computational optimization of convolutional neural networks using
separated filters architecture [69.73393478582027]
我々は、計算複雑性を低減し、ニューラルネットワーク処理を高速化する畳み込みニューラルネットワーク変換を考える。
畳み込みニューラルネットワーク(CNN)の使用は、計算的に要求が多すぎるにもかかわらず、画像認識の標準的なアプローチである。
論文 参考訳(メタデータ) (2020-02-18T17:42:13Z) - Filter Grafting for Deep Neural Networks [71.39169475500324]
ディープニューラルネットワーク(DNN)の表現能力向上を目的としたフィルタグラフト
我々は,フィルタの情報を測定するエントロピーベースの基準と,ネットワーク間のグラフト情報のバランスをとるための適応重み付け戦略を開発する。
例えば、グラフトされたMobileNetV2は、CIFAR-100データセットで非グラフトされたMobileNetV2を約7%上回っている。
論文 参考訳(メタデータ) (2020-01-15T03:18:57Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。