論文の概要: EH-DNAS: End-to-End Hardware-aware Differentiable Neural Architecture
Search
- arxiv url: http://arxiv.org/abs/2111.12299v1
- Date: Wed, 24 Nov 2021 06:45:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-25 16:18:17.061587
- Title: EH-DNAS: End-to-End Hardware-aware Differentiable Neural Architecture
Search
- Title(参考訳): EH-DNAS: ハードウェアを意識した識別可能なニューラルネットワーク探索
- Authors: Qian Jiang, Xiaofan Zhang, Deming Chen, Minh N. Do, Raymond A. Yeh
- Abstract要約: エンド・ツー・エンドハードウェア・アウェアDNAS(EH-DNAS)を用いて、ハードウェア効率の良いディープニューラルネットワークを様々なプラットフォームで提供する。
EH-DNASはハードウェアの性能を、カスタマイズされたアクセラレータで平均14時間、既存のハードウェアプロセッサで平均16時間改善する。
- 参考スコア(独自算出の注目度): 32.23992012207146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In hardware-aware Differentiable Neural Architecture Search (DNAS), it is
challenging to compute gradients of hardware metrics to perform architecture
search. Existing works rely on linear approximations with limited support to
customized hardware accelerators. In this work, we propose End-to-end
Hardware-aware DNAS (EH-DNAS), a seamless integration of end-to-end hardware
benchmarking, and fully automated DNAS to deliver hardware-efficient deep
neural networks on various platforms, including Edge GPUs, Edge TPUs, Mobile
CPUs, and customized accelerators. Given a desired hardware platform, we
propose to learn a differentiable model predicting the end-to-end hardware
performance of neural network architectures for DNAS. We also introduce
E2E-Perf, an end-to-end hardware benchmarking tool for customized accelerators.
Experiments on CIFAR10 and ImageNet show that EH-DNAS improves the hardware
performance by an average of $1.4\times$ on customized accelerators and
$1.6\times$ on existing hardware processors while maintaining the
classification accuracy.
- Abstract(参考訳): ハードウェア対応の微分可能なニューラルネットワークサーチ(DNAS)では、ハードウェアメトリクスの勾配を計算してアーキテクチャ検索を行うのが困難である。
既存の作業は、カスタマイズされたハードウェアアクセラレータのサポートが限定された線形近似に依存している。
本研究では,エッジGPU,エッジTPU,モバイルCPU,カスタマイズされたアクセラレータなど,さまざまなプラットフォーム上でハードウェア効率のよいディープニューラルネットワークを実現するために,エンドツーエンドハードウェアベンチマークのシームレスな統合と完全自動DNASを提案する。
所望のハードウェアプラットフォームを前提として,DNASのためのニューラルネットワークアーキテクチャのエンドツーエンドハードウェア性能を予測可能なモデルを学習することを提案する。
E2E-Perfは、カスタマイズされたアクセラレーターのためのエンドツーエンドのハードウェアベンチマークツールである。
CIFAR10 と ImageNet の実験では、EH-DNAS がハードウェアの性能を平均1.4\times$、既存のハードウェアプロセッサで1.6\times$で改善し、分類精度を維持している。
関連論文リスト
- SCAN-Edge: Finding MobileNet-speed Hybrid Networks for Diverse Edge Devices via Hardware-Aware Evolutionary Search [10.48978386515933]
我々は,多種多様なエッジデバイスに対応するために,自己認識,畳み込み,アクティベーションを探索する統一NASフレームワークを提案する。
SCAN-Edgeは、サンプリングプロセスを高速化するために、検索空間の品質を改善するハードウェア対応の進化アルゴリズムに依存している。
論文 参考訳(メタデータ) (2024-08-27T20:39:09Z) - Multi-objective Differentiable Neural Architecture Search [58.67218773054753]
本研究では,パフォーマンスとハードウェアメトリクスのトレードオフのために,ユーザの好みを符号化するNASアルゴリズムを提案する。
提案手法は,既存のMOO NAS手法を,定性的に異なる検索空間やデータセットの広い範囲で性能良くする。
論文 参考訳(メタデータ) (2024-02-28T10:09:04Z) - Using the Abstract Computer Architecture Description Language to Model
AI Hardware Accelerators [77.89070422157178]
AI統合製品の製造者は、製品のパフォーマンス要件に適合するアクセラレータを選択するという、重大な課題に直面します。
抽象コンピュータアーキテクチャ記述言語(ACADL)は、コンピュータアーキテクチャブロック図の簡潔な形式化である。
本稿では,AIハードウェアアクセラレーションのモデル化にACADLを用いること,DNNのマッピングにACADL記述を使用し,タイミングシミュレーションのセマンティクスを解説し,性能評価結果の収集を行う。
論文 参考訳(メタデータ) (2024-01-30T19:27:16Z) - Search-time Efficient Device Constraints-Aware Neural Architecture
Search [6.527454079441765]
コンピュータビジョンや自然言語処理といったディープラーニング技術は、計算コストが高く、メモリ集約的です。
ニューラルアーキテクチャサーチ(NAS)によるデバイス制約に最適化されたタスク固有のディープラーニングアーキテクチャの構築を自動化する。
本稿では,エッジデバイス制約を組み込んだ高速ニューラルネットワークアーキテクチャ探索の原理的手法であるDCA-NASを提案する。
論文 参考訳(メタデータ) (2023-07-10T09:52:28Z) - MAPLE-X: Latency Prediction with Explicit Microprocessor Prior Knowledge [87.41163540910854]
ディープニューラルネットワーク(DNN)レイテンシのキャラクタリゼーションは、時間を要するプロセスである。
ハードウェアデバイスの事前知識とDNNアーキテクチャのレイテンシを具体化し,MAPLEを拡張したMAPLE-Xを提案する。
論文 参考訳(メタデータ) (2022-05-25T11:08:20Z) - MAPLE-Edge: A Runtime Latency Predictor for Edge Devices [80.01591186546793]
汎用ハードウェアの最先端遅延予測器であるMAPLEのエッジデバイス指向拡張であるMAPLE-Edgeを提案する。
MAPLEと比較して、MAPLE-Edgeはより小さなCPUパフォーマンスカウンタを使用して、ランタイムとターゲットデバイスプラットフォームを記述することができる。
また、共通ランタイムを共有するデバイスプール上でトレーニングを行うMAPLEとは異なり、MAPLE-Edgeは実行時に効果的に一般化できることを示す。
論文 参考訳(メタデータ) (2022-04-27T14:00:48Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - MAPLE: Microprocessor A Priori for Latency Estimation [81.91509153539566]
現代のディープニューラルネットワークは、低レイテンシとエネルギー消費を示しながら最先端の精度を示す必要がある。
評価されたアーキテクチャのレイテンシの測定は、NASプロセスにかなりの時間を加えます。
転送学習やドメイン適応に依存しない推定用マイクロプロセッサAプライオリティを提案する。
論文 参考訳(メタデータ) (2021-11-30T03:52:15Z) - HSCoNAS: Hardware-Software Co-Design of Efficient DNNs via Neural
Architecture Search [6.522258468923919]
深層ニューラルネットワーク(DNN)の設計を自動化するため,新しいハードウェア対応ニューラルアーキテクチャサーチ(NAS)フレームワークであるHSCoNASを提案する。
この目的を達成するために,まず,ターゲットハードウェア上でのdnnのランタイム遅延を近似する効果的なハードウェア性能モデリング手法を提案する。
また, 動的チャネルスケーリングにより, 指定されたレイテンシとプログレッシブスペースの縮小下での精度を最大化し, 対象ハードウェアに対する検索空間を改良する手法を提案する。
論文 参考訳(メタデータ) (2021-03-11T12:21:21Z) - Rethinking Co-design of Neural Architectures and Hardware Accelerators [31.342964958282092]
我々は,ニューラルアーキテクチャとハードウェアアクセラレータの協調設計の重要性と戦略を体系的に研究する。
実験の結果, 統合探索法は, 従来のプラットフォーム認識型ニューラルアーキテクチャ検索を一貫して上回っていることがわかった。
提案手法は, エッジ加速器のエネルギー消費量を, 同じ精度で最大2倍に削減できる。
論文 参考訳(メタデータ) (2021-02-17T07:55:58Z) - DANCE: Differentiable Accelerator/Network Co-Exploration [8.540518473228078]
この研究は、ハードウェアアクセラレーターとネットワークアーキテクチャ設計の共同探索に向けた異なるアプローチを示す。
ハードウェア評価ソフトウェアをニューラルネットワークでモデル化することにより、アクセラレーションアーキテクチャとハードウェアメトリクスの関係は微分可能となる。
提案手法は,既存手法と比較して,精度とハードウェアコストの指標を向上しつつ,比較的短い時間で共同探索を行う。
論文 参考訳(メタデータ) (2020-09-14T07:43:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。