論文の概要: Low-complexity CNNs for Acoustic Scene Classification
- arxiv url: http://arxiv.org/abs/2207.11529v1
- Date: Sat, 23 Jul 2022 14:37:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 13:47:25.768237
- Title: Low-complexity CNNs for Acoustic Scene Classification
- Title(参考訳): 音響シーン分類のための低複雑CNN
- Authors: Arshdeep Singh and Mark D. Plumbley
- Abstract要約: 本稿では,音響シーン分類(ASC)のための低複雑さフレームワークを提案する。
ASC用に設計されたフレームワークのほとんどは、学習能力とパフォーマンスの向上により、畳み込みニューラルネットワーク(CNN)を使用している。
CNNは、大きなサイズと高い計算複雑性のためにリソースが空いている。
- 参考スコア(独自算出の注目度): 23.661189257759535
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a low-complexity framework for acoustic scene
classification (ASC). Most of the frameworks designed for ASC use convolutional
neural networks (CNNs) due to their learning ability and improved performance
compared to hand-engineered features. However, CNNs are resource hungry due to
their large size and high computational complexity. Therefore, CNNs are
difficult to deploy on resource constrained devices. This paper addresses the
problem of reducing the computational complexity and memory requirement in
CNNs. We propose a low-complexity CNN architecture, and apply pruning and
quantization to further reduce the parameters and memory. We then propose an
ensemble framework that combines various low-complexity CNNs to improve the
overall performance. An experimental evaluation of the proposed framework is
performed on the publicly available DCASE 2022 Task 1 that focuses on ASC. The
proposed ensemble framework has approximately 60K parameters, requires 19M
multiply-accumulate operations and improves the performance by approximately
2-4 percentage points compared to the DCASE 2022 Task 1 baseline network.
- Abstract(参考訳): 本稿では,音響シーン分類(ASC)のための低複雑さフレームワークを提案する。
ASC用に設計されたほとんどのフレームワークは、学習能力とハンドエンジニアリング機能と比較してパフォーマンスが改善されたため、畳み込みニューラルネットワーク(CNN)を使用している。
しかし、CNNは大きなサイズと高い計算複雑性のため、リソースが不足している。
そのため、リソース制約のあるデバイスにCNNをデプロイするのは困難である。
本稿では,CNNにおける計算複雑性とメモリ要件の低減の問題に対処する。
我々は低複雑さCNNアーキテクチャを提案し、プルーニングと量子化を適用してパラメータとメモリをさらに削減する。
次に、様々な低複雑さCNNを組み合わせて全体的な性能を改善するアンサンブルフレームワークを提案する。
ASCに焦点を当てたDCASE 2022タスク1において,提案フレームワークの実験的検討を行った。
提案するアンサンブルフレームワークは,約60Kのパラメータを持ち,19Mの乗算累積演算を必要とし,DCASE 2022 Task 1のベースラインネットワークと比較して約2-4ポイントの性能向上を実現している。
関連論文リスト
- OA-CNNs: Omni-Adaptive Sparse CNNs for 3D Semantic Segmentation [70.17681136234202]
設計上の違いを再検討し、スパースCNNが達成できることの限界をテストする。
本稿では,このギャップを埋めるために,適応受容場(親和性)と適応関係という2つの重要な要素を提案する。
この調査により、軽量モジュールを統合するネットワークのファミリーであるOmni-Adaptive 3D CNN(OA-CNN)が開発された。
論文 参考訳(メタデータ) (2024-03-21T14:06:38Z) - Compressing audio CNNs with graph centrality based filter pruning [20.028643659869573]
畳み込みニューラルネットワーク(CNN)は、現実世界の多くの問題に対する高性能なソリューションにおいて一般的な場所である。
CNNには多くのパラメータとフィルタがあり、一部は他のものよりもパフォーマンスに大きな影響を与えている。
我々は,最も高い「共通性」を持つフィルタを除去するプルーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-05T09:38:05Z) - Towards a General Purpose CNN for Long Range Dependencies in
$\mathrm{N}$D [49.57261544331683]
構造変化のない任意の解像度,次元,長さのタスクに対して,連続的な畳み込みカーネルを備えた単一CNNアーキテクチャを提案する。
1$mathrmD$)とビジュアルデータ(2$mathrmD$)の幅広いタスクに同じCCNNを適用することで、我々のアプローチの汎用性を示す。
私たちのCCNNは競争力があり、検討されたすべてのタスクで現在の最先端を上回ります。
論文 参考訳(メタデータ) (2022-06-07T15:48:02Z) - A Passive Similarity based CNN Filter Pruning for Efficient Acoustic
Scene Classification [23.661189257759535]
音響シーン分類(ASC)のための低複雑さ畳み込みニューラルネットワーク(CNN)の開発手法を提案する。
本稿では,CNNからの畳み込みフィルタを除去し,圧縮したCNNを生成するパッシブ・フィルタ・プルーニング・フレームワークを提案する。
提案手法は単純で,パラメータが25%少なく,精度が1%以下で,推論当たりの計算量を27%削減する。
論文 参考訳(メタデータ) (2022-03-29T17:00:06Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - ACP: Automatic Channel Pruning via Clustering and Swarm Intelligence
Optimization for CNN [6.662639002101124]
近年、畳み込みニューラルネットワーク(CNN)はより深く広がっています。
既存のマグニチュードベースの切断方法は効率的ですが、圧縮ネットワークのパフォーマンスは予測不可能です。
新規な自動チャネル切断法(ACP)を提案する。
ACPは3つの異なる分類データセットに基づいていくつかの最先端CNNに対して評価される。
論文 参考訳(メタデータ) (2021-01-16T08:56:38Z) - 3D CNNs with Adaptive Temporal Feature Resolutions [83.43776851586351]
similarity Guided Sampling (SGS)モジュールは既存のCNNアーキテクチャにプラグインできる。
SGSは、時間的特徴の類似性を学び、類似した特徴をまとめることで、3D CNNに権限を与える。
評価の結果,提案モジュールは精度を保ちながら計算コスト(GFLOP)を半分に減らし,最先端化を実現していることがわかった。
論文 参考訳(メタデータ) (2020-11-17T14:34:05Z) - ACDC: Weight Sharing in Atom-Coefficient Decomposed Convolution [57.635467829558664]
我々は,CNNにおいて,畳み込みカーネル間の構造正則化を導入する。
我々はCNNがパラメータや計算量を劇的に減らして性能を維持していることを示す。
論文 参考訳(メタデータ) (2020-09-04T20:41:47Z) - PENNI: Pruned Kernel Sharing for Efficient CNN Inference [41.050335599000036]
最先端(SOTA)CNNは、様々なタスクにおいて優れたパフォーマンスを達成する。
その高い計算要求と膨大な数のパラメータにより、リソース制約のあるデバイスにこれらのSOTA CNNをデプロイすることは困難である。
本稿では,CNNモデル圧縮フレームワークであるPENNIを提案する。
論文 参考訳(メタデータ) (2020-05-14T16:57:41Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。