論文の概要: Lightweight Neural Architecture Search for Temporal Convolutional
Networks at the Edge
- arxiv url: http://arxiv.org/abs/2301.10281v1
- Date: Tue, 24 Jan 2023 19:47:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-26 16:33:45.117571
- Title: Lightweight Neural Architecture Search for Temporal Convolutional
Networks at the Edge
- Title(参考訳): エッジにおける時間畳み込みネットワークのための軽量ニューラルネットワーク探索
- Authors: Matteo Risso, Alessio Burrello, Francesco Conti, Lorenzo Lamberti,
Yukai Chen, Luca Benini, Enrico Macii, Massimo Poncino, Daniele Jahier
Pagliari
- Abstract要約: この研究は特に、時系列処理のための畳み込みモデルであるTCN(Temporal Convolutional Networks)に焦点を当てている。
我々は,TNの最も特異なアーキテクチャパラメータの最適化を明示的に目標とする最初のNASツールを提案する。
提案したNASは,音声および生体信号を含む4つの実世界のエッジ関連タスクでテストする。
- 参考スコア(独自算出の注目度): 21.72253397805102
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural Architecture Search (NAS) is quickly becoming the go-to approach to
optimize the structure of Deep Learning (DL) models for complex tasks such as
Image Classification or Object Detection. However, many other relevant
applications of DL, especially at the edge, are based on time-series processing
and require models with unique features, for which NAS is less explored. This
work focuses in particular on Temporal Convolutional Networks (TCNs), a
convolutional model for time-series processing that has recently emerged as a
promising alternative to more complex recurrent architectures. We propose the
first NAS tool that explicitly targets the optimization of the most peculiar
architectural parameters of TCNs, namely dilation, receptive-field and number
of features in each layer. The proposed approach searches for networks that
offer good trade-offs between accuracy and number of parameters/operations,
enabling an efficient deployment on embedded platforms. We test the proposed
NAS on four real-world, edge-relevant tasks, involving audio and bio-signals.
Results show that, starting from a single seed network, our method is capable
of obtaining a rich collection of Pareto optimal architectures, among which we
obtain models with the same accuracy as the seed, and 15.9-152x fewer
parameters. Compared to three state-of-the-art NAS tools, ProxylessNAS,
MorphNet and FBNetV2, our method explores a larger search space for TCNs (up to
10^12x) and obtains superior solutions, while requiring low GPU memory and
search time. We deploy our NAS outputs on two distinct edge devices, the
multicore GreenWaves Technology GAP8 IoT processor and the single-core
STMicroelectronics STM32H7 microcontroller. With respect to the
state-of-the-art hand-tuned models, we reduce latency and energy of up to 5.5x
and 3.8x on the two targets respectively, without any accuracy loss.
- Abstract(参考訳): ニューラルアーキテクチャサーチ(NAS)は、画像分類やオブジェクト検出といった複雑なタスクに対して、ディープラーニング(DL)モデルの構造を最適化するためのゴートアプローチになりつつある。
しかしながら、DLの他の関連アプリケーション、特にエッジでは、時系列処理に基づいており、NASがあまり探索されていないユニークな特徴を持つモデルを必要とする。
この研究は特に、より複雑なリカレントアーキテクチャの代替として最近登場した時系列処理の畳み込みモデルであるTCN(Temporal Convolutional Networks)に焦点を当てている。
我々は,TNの最も特異なアーキテクチャパラメータ,すなわちダイレーション,受容場,各層における特徴の数を明示的に最適化する最初のNASツールを提案する。
提案手法は,精度とパラメータ/操作数の良好なトレードオフを提供するネットワークを探索し,組込みプラットフォームへの効率的なデプロイを可能にする。
提案したNASは,音声および生体信号を含む4つの実世界のエッジ関連タスクでテストする。
その結果,本手法は単一シードネットワークから,種と同じ精度のモデルと15.9~152倍のパラメータを持つpareto最適アーキテクチャの豊富なコレクションを得ることができた。
ProxylessNAS、MorphNet、FBNetV2の3つの最先端NASツールと比較し、TNの検索スペースを最大10^12xまで拡大し、低GPUメモリと検索時間を要する優れた解を得る。
我々はNAS出力を2つの異なるエッジデバイス、マルチコアGreenWaves Technology GAP8 IoTプロセッサとシングルコアSTマイクロエレクトロニクスSTM32H7マイクロコントローラにデプロイする。
最先端のハンドチューニングモデルでは、2つの目標に対してそれぞれ5.5xと3.8xのレイテンシとエネルギーを、精度の損失なく削減する。
関連論文リスト
- A Pairwise Comparison Relation-assisted Multi-objective Evolutionary Neural Architecture Search Method with Multi-population Mechanism [58.855741970337675]
ニューラルアーキテクチャサーチ(NAS)により、リサーチ者は広大なサーチスペースを自動的に探索し、効率的なニューラルネットワークを見つけることができる。
NASは重要なボトルネックに悩まされており、探索プロセス中に多くのアーキテクチャを評価する必要がある。
SMEM-NASは,多集団構造に基づく多目的進化アルゴリズムである。
論文 参考訳(メタデータ) (2024-07-22T12:46:22Z) - DCP-NAS: Discrepant Child-Parent Neural Architecture Search for 1-bit
CNNs [53.82853297675979]
バイナリ重みとアクティベーションを備えた1ビット畳み込みニューラルネットワーク(CNN)は、リソース制限された組み込みデバイスの可能性を示している。
自然なアプローチの1つは、NASの計算とメモリコストを削減するために1ビットCNNを使用することである。
本稿では,1ビットCNNを効率的に探索するためにDCP-NAS(Disrepant Child-Parent Neural Architecture Search)を提案する。
論文 参考訳(メタデータ) (2023-06-27T11:28:29Z) - DiffusionNAG: Predictor-guided Neural Architecture Generation with Diffusion Models [56.584561770857306]
本研究では拡散モデルに基づく新しい条件付きニューラルネットワーク生成(NAG)フレームワークDiffusionNAGを提案する。
具体的には、ニューラルネットワークを有向グラフとみなし、それらを生成するためのグラフ拡散モデルを提案する。
本研究では,2つの予測型NAS(Transferable NAS)とベイズ最適化(BO)に基づくNAS(Bayesian Optimization)の2つのシナリオにおいて,DiffusionNAGの有効性を検証する。
BOベースのアルゴリズムに統合されると、DiffusionNAGは既存のBOベースのNASアプローチ、特にImageNet 1Kデータセット上の大規模なMobileNetV3検索スペースよりも優れている。
論文 参考訳(メタデータ) (2023-05-26T13:58:18Z) - HQNAS: Auto CNN deployment framework for joint quantization and
architecture search [30.45926484863791]
ハードウェア対応量子化ニューラルネットワーク探索(HQNAS)と呼ばれる新しいニューラルネットワーク設計フレームワークを提案する。
CIFAR10の優れたNNポリシーを見つけるのにわずか4時間しかかからない。
また、Imagenetで同等のモデルを生成するのに10パーセントのGPU時間しかかからない。
論文 参考訳(メタデータ) (2022-10-16T08:32:18Z) - $\alpha$NAS: Neural Architecture Search using Property Guided Synthesis [1.2746672439030722]
我々は,より大規模な設計空間において,効率的なニューラルアーキテクチャ探索(NAS)を可能にする技術を開発した。
1) 抽象的な検索空間は元の検索空間よりもかなり小さく,(2) 類似したプログラム特性を持つアーキテクチャも類似した性能を持つ。
我々は進化的フレームワーク内に$alpha$NASというアプローチを実装し、プログラムの特性によって変異が導かれる。
論文 参考訳(メタデータ) (2022-05-08T21:48:03Z) - U-Boost NAS: Utilization-Boosted Differentiable Neural Architecture
Search [50.33956216274694]
ターゲットプラットフォームにおけるリソース利用の最適化は、DNN推論時に高いパフォーマンスを達成するための鍵となる。
本稿では,タスクの正確性や推論遅延を最適化するだけでなく,資源利用のためのハードウェア対応NASフレームワークを提案する。
我々は,従来のハードウェア対応NAS法と比較して,DNN推論の2.8~4倍の高速化を実現している。
論文 参考訳(メタデータ) (2022-03-23T13:44:15Z) - TND-NAS: Towards Non-differentiable Objectives in Progressive
Differentiable NAS Framework [6.895590095853327]
微分可能なアーキテクチャサーチは、ニューラルネットワークサーチ(NAS)分野において、徐々に主流の研究トピックになりつつある。
最近の差別化可能なNASは、検索性能の向上とGPUメモリ消費の削減も目指している。
微分可能なNASフレームワークにおける高効率と、多目的NASにおける非微分可能なメトリクス間の互換性を両立させたTND-NASを提案する。
論文 参考訳(メタデータ) (2021-11-06T14:19:36Z) - FLASH: Fast Neural Architecture Search with Hardware Optimization [7.263481020106725]
ニューラルアーキテクチャサーチ(NAS)は、効率的かつ高性能なディープニューラルネットワーク(DNN)を設計するための有望な手法である
本稿では,実ハードウェアプラットフォーム上でのDNNの精度と性能を協調的に最適化する,非常に高速なNAS手法であるFLASHを提案する。
論文 参考訳(メタデータ) (2021-08-01T23:46:48Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - DDPNAS: Efficient Neural Architecture Search via Dynamic Distribution
Pruning [135.27931587381596]
DDPNASと呼ばれる効率よく統一されたNASフレームワークを提案する。
検索空間は動的に切断され,その分布はいくつかのエポック毎に更新される。
提案した効率的なネットワーク生成手法により,与えられた制約に対する最適なニューラルネットワークアーキテクチャを直接取得する。
論文 参考訳(メタデータ) (2019-05-28T06:35:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。