論文の概要: Neural Architecture Search for Energy Efficient Always-on Audio Models
- arxiv url: http://arxiv.org/abs/2202.05397v2
- Date: Thu, 1 Jun 2023 12:05:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-03 02:12:23.652313
- Title: Neural Architecture Search for Energy Efficient Always-on Audio Models
- Title(参考訳): エネルギー効率の良い音声モデルのためのニューラルアーキテクチャ探索
- Authors: Daniel T. Speckhard, Karolis Misiunas, Sagi Perel, Tenghui Zhu, Simon
Carlile, Malcolm Slaney
- Abstract要約: 我々は,ニューラルネットワーク検索(NAS)にいくつかの変更を加えて,現実的な状況における成功の可能性を改善する。
実際のハードウェアで検索のパフォーマンスをベンチマークするが、実際のハードウェアで何千ものテストを実行することは難しいため、ランダムなフォレストモデルを用いて、候補ネットワークのエネルギー使用量を概ね予測する。
その結果,AudioSetをベースとした音響イベント分類データセットを用いて,推定毎のエネルギーの桁違いが小さく,メモリフットプリントもはるかに小さくなった。
- 参考スコア(独自算出の注目度): 1.3846912186423144
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Mobile and edge computing devices for always-on classification tasks require
energy-efficient neural network architectures. In this paper we present several
changes to neural architecture searches (NAS) that improve the chance of
success in practical situations. Our search simultaneously optimizes for
network accuracy, energy efficiency and memory usage. We benchmark the
performance of our search on real hardware, but since running thousands of
tests with real hardware is difficult we use a random forest model to roughly
predict the energy usage of a candidate network. We present a search strategy
that uses both Bayesian and regularized evolutionary search with particle
swarms, and employs early-stopping to reduce the computational burden. Our
search, evaluated on a sound-event classification dataset based upon AudioSet,
results in an order of magnitude less energy per inference and a much smaller
memory footprint than our baseline MobileNetV1/V2 implementations while
slightly improving task accuracy. We also demonstrate how combining a 2D
spectrogram with a convolution with many filters causes a computational
bottleneck for audio classification and that alternative approaches reduce the
computational burden but sacrifice task accuracy.
- Abstract(参考訳): 常時オンの分類タスクのためのモバイルおよびエッジコンピューティングデバイスは、エネルギー効率のよいニューラルネットワークアーキテクチャを必要とする。
本稿では,ニューラルネットワークサーチ(NAS)の実践的状況における成功の可能性を改善するためのいくつかの変更について述べる。
検索は,ネットワークの精度,エネルギー効率,メモリ使用量を同時に最適化する。
実際のハードウェアで検索のパフォーマンスをベンチマークするが、実際のハードウェアで何千ものテストを実行することは難しいため、ランダムフォレストモデルを用いて、候補ネットワークのエネルギー使用量を概ね予測する。
本稿では,粒子群を用いたベイジアン探索と正規化進化探索の両方を用いた探索戦略を提案し,計算負荷を軽減するために早期停止を用いる。
本研究では,AudioSetをベースとした音響イベント分類データセットで評価した結果,基本となるMobileNetV1/V2実装よりもはるかに少ないエネルギーとメモリフットプリントを実現し,タスク精度をわずかに改善した。
また,2次元スペクトログラムと多くのフィルタの畳み込みを組み合わせれば,音声分類の計算ボトルネックが生じ,計算負担を低減できるがタスク精度を犠牲にする手法が提案されている。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Neural network scoring for efficient computing [0.9124662097191377]
ニューラルネットワークの推論において測定された精度と消費電力のトレードオフを特徴付ける合成スコアを提案する。
私たちの知る限りでは、ハードウェアアーキテクチャ上のニューラルアーキテクチャに対する最初の適合テストです。
論文 参考訳(メタデータ) (2023-10-14T10:29:52Z) - Simple Pooling Front-ends For Efficient Audio Classification [56.59107110017436]
入力音声特徴量における時間的冗長性を排除することは,効率的な音声分類に有効な方法である可能性が示唆された。
本稿では、単純な非パラメトリックプーリング操作を用いて冗長な情報を削減する単純なプールフロントエンド(SimPFs)のファミリーを提案する。
SimPFは、市販オーディオニューラルネットワークの浮動小数点演算数の半数以上を削減できる。
論文 参考訳(メタデータ) (2022-10-03T14:00:41Z) - NAS-FCOS: Efficient Search for Object Detection Architectures [113.47766862146389]
簡易なアンカーフリー物体検出器の特徴ピラミッドネットワーク (FPN) と予測ヘッドを探索し, より効率的な物体検出手法を提案する。
慎重に設計された検索空間、検索アルゴリズム、ネットワーク品質を評価するための戦略により、8つのV100 GPUを使用して、4日以内に最高のパフォーマンスの検知アーキテクチャを見つけることができる。
論文 参考訳(メタデータ) (2021-10-24T12:20:04Z) - Broadcasted Residual Learning for Efficient Keyword Spotting [7.335747584353902]
モデルサイズと計算負荷を小さくして高精度な放送残差学習手法を提案する。
また,放送残差学習に基づく新しいネットワークアーキテクチャ,BC-Residual Network(BC-ResNet)を提案する。
BC-ResNetsは、Googleの音声コマンドデータセット v1 と v2 で、最先端の98.0% と98.7% のトップ-1 の精度をそれぞれ達成している。
論文 参考訳(メタデータ) (2021-06-08T06:55:39Z) - Ps and Qs: Quantization-aware pruning for efficient low latency neural
network inference [56.24109486973292]
超低遅延アプリケーションのためのニューラルネットワークのトレーニング中の分級と量子化の相互作用を研究します。
量子化アウェアプルーニングは,タスクのプルーニングや量子化のみよりも計算効率のよいモデルであることが判明した。
論文 参考訳(メタデータ) (2021-02-22T19:00:05Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - EagerNet: Early Predictions of Neural Networks for Computationally
Efficient Intrusion Detection [2.223733768286313]
最小限のリソースでネットワーク攻撃を検出するアーキテクチャを提案する。
アーキテクチャはバイナリまたはマルチクラスの分類問題に対処でき、ネットワークの精度を予測速度と交換できる。
論文 参考訳(メタデータ) (2020-07-27T11:31:37Z) - Latency-Aware Differentiable Neural Architecture Search [113.35689580508343]
近年、探索コストの低さと検索空間設計の柔軟性から、微分可能なニューラルネットワーク探索法が人気を博している。
しかし、これらの手法はネットワーク最適化の難しさに悩まされており、検索されたネットワークはハードウェアに不便な場合が多い。
本稿では,この問題を最適化に微分可能な遅延損失項を追加することにより,精度とレイテンシのトレードオフをバランス係数で行うことができる。
論文 参考訳(メタデータ) (2020-01-17T15:55:21Z) - Neural Architecture Search on Acoustic Scene Classification [13.529070650030313]
我々はMobileNetV2にインスパイアされた軽量で高性能なベースラインネットワークを提案する。
提案するベースラインに基づいて構築された動的アーキテクチャ空間を探索する。
実験の結果,検索されたネットワークはASCタスクに適していることがわかった。
論文 参考訳(メタデータ) (2019-12-30T06:35:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。