論文の概要: Performance-Oriented Neural Architecture Search
- arxiv url: http://arxiv.org/abs/2001.02976v1
- Date: Thu, 9 Jan 2020 13:47:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 04:11:57.779488
- Title: Performance-Oriented Neural Architecture Search
- Title(参考訳): パフォーマンス指向ニューラルアーキテクチャ探索
- Authors: Andrew Anderson, Jing Su, Rozenn Dahyot and David Gregg
- Abstract要約: 我々は,モデル設計が高効率であることを保証するため,ハードウェアに関する情報を用いてニューラルアーキテクチャ検索を拡張することを提案する。
提案手法は,高精度であるだけでなく,推論を行うコンピューティングプラットフォームに効率的にマッピングされるニューラルアーキテクチャを実現することを実証する。
- 参考スコア(独自算出の注目度): 3.041585511577782
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hardware-Software Co-Design is a highly successful strategy for improving
performance of domain-specific computing systems. We argue for the application
of the same methodology to deep learning; specifically, we propose to extend
neural architecture search with information about the hardware to ensure that
the model designs produced are highly efficient in addition to the typical
criteria around accuracy. Using the task of keyword spotting in audio on edge
computing devices, we demonstrate that our approach results in neural
architecture that is not only highly accurate, but also efficiently mapped to
the computing platform which will perform the inference. Using our modified
neural architecture search, we demonstrate $0.88\%$ increase in TOP-1 accuracy
with $1.85\times$ reduction in latency for keyword spotting in audio on an
embedded SoC, and $1.59\times$ on a high-end GPU.
- Abstract(参考訳): ハードウェア・ソフトウェア共同設計は、ドメイン固有のコンピュータシステムの性能向上のための非常に成功した戦略である。
我々は,この手法を深層学習に適用することについて議論する。具体的には,生成したモデル設計が精度に関する典型的な基準に加えて,極めて効率的であることを保証するため,ハードウェアに関する情報を用いたニューラルアーキテクチャ探索の拡張を提案する。
エッジコンピューティングデバイス上での音声におけるキーワードスポッティングのタスクを用いて,このアプローチが,高い精度を持つだけでなく,推論を行う計算プラットフォームに効率的にマッピングされるニューラルアーキテクチャをもたらすことを実証する。
改良したニューラルアーキテクチャ検索により、top-1精度が0.88\%$向上し、組み込みsoc上のオーディオにおけるキーワードスポッティングのレイテンシが1.85\times$、ハイエンドgpuで1.59\times$となった。
関連論文リスト
- SimQ-NAS: Simultaneous Quantization Policy and Neural Architecture
Search [6.121126813817338]
最近のワンショットニューラルネットワーク検索アルゴリズムは、特定のタスクに適したハードウェアに依存しないスーパーネットワークをトレーニングし、異なるハードウェアプラットフォームのための効率的なサブネットワークを抽出する。
我々は,光学習された予測器と組み合わせた多目的探索アルゴリズムを用いることで,サブネットワークアーキテクチャとそれに対応する量子化ポリシーの両方を効率的に探索できることを示す。
論文 参考訳(メタデータ) (2023-12-19T22:08:49Z) - Hardware Aware Evolutionary Neural Architecture Search using
Representation Similarity Metric [12.52012450501367]
ハードウェア対応ニューラルアーキテクチャサーチ(ハードウェア対応ニューラルアーキテクチャサーチ、HW-NAS)は、特定のタスクとターゲットハードウェアのためにニューラルネットワークのアーキテクチャを自動的に設計する技術である。
HW-NASでは、重要な計算資源を必要とするため、候補アーキテクチャの性能を評価することが重要な課題である。
本稿では,HW-EvRSNASと呼ばれるハードウェア対応進化型NAS手法を提案する。
論文 参考訳(メタデータ) (2023-11-07T11:58:40Z) - Flexible Channel Dimensions for Differentiable Architecture Search [50.33956216274694]
本稿では,効率的な動的チャネル割当アルゴリズムを用いた新しい微分可能なニューラルアーキテクチャ探索法を提案する。
提案するフレームワークは,タスク精度と推論遅延において,従来の手法と等価なDNNアーキテクチャを見つけることができることを示す。
論文 参考訳(メタデータ) (2023-06-13T15:21:38Z) - Automating Neural Architecture Design without Search [3.651848964235307]
アルゴリズム実行中に生成された各ニューラルネットワークを逐次評価する必要のない新しい視点から、自動アーキテクチャ設計について検討する。
リンク予測にグラフニューラルネットワークを用いて提案手法を実装し,NAS-Bench-101から知識を得た。
さらに、NAS-Bench-101から学んだ知識を利用して、DARTS検索空間におけるアーキテクチャ設計を自動化し、CIFAR10では97.82%、ImageNetでは76.51%の精度で2時間10-4ドルのGPU日しか消費しなかった。
論文 参考訳(メタデータ) (2022-04-21T14:41:05Z) - Neural Architecture Search for Speech Emotion Recognition [72.1966266171951]
本稿では,SERモデルの自動構成にニューラルアーキテクチャサーチ(NAS)技術を適用することを提案する。
NASはモデルパラメータサイズを維持しながらSER性能(54.89%から56.28%)を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-03-31T10:16:10Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - Off-Policy Reinforcement Learning for Efficient and Effective GAN
Architecture Search [50.40004966087121]
本稿では,GANアーキテクチャ探索のための強化学習に基づくニューラルアーキテクチャ探索手法を提案する。
鍵となる考え方は、よりスムーズなアーキテクチャサンプリングのためのマルコフ決定プロセス(MDP)として、GANアーキテクチャ探索問題を定式化することである。
我々は,従来の政策によって生成されたサンプルを効率的に活用する,非政治的なGANアーキテクチャ探索アルゴリズムを利用する。
論文 参考訳(メタデータ) (2020-07-17T18:29:17Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z) - PONAS: Progressive One-shot Neural Architecture Search for Very
Efficient Deployment [9.442139459221783]
我々は,進歩的NASとワンショット手法の利点を組み合わせた,プログレッシブワンショットニューラルアーキテクチャサーチ(PONAS)を提案する。
PONASは10秒で特別なネットワークのアーキテクチャを見つけることができる。
ImageNetの分類では、75.2%のトップ1の精度が得られる。
論文 参考訳(メタデータ) (2020-03-11T05:00:31Z) - DDPNAS: Efficient Neural Architecture Search via Dynamic Distribution
Pruning [135.27931587381596]
DDPNASと呼ばれる効率よく統一されたNASフレームワークを提案する。
検索空間は動的に切断され,その分布はいくつかのエポック毎に更新される。
提案した効率的なネットワーク生成手法により,与えられた制約に対する最適なニューラルネットワークアーキテクチャを直接取得する。
論文 参考訳(メタデータ) (2019-05-28T06:35:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。