論文の概要: HAO: Hardware-aware neural Architecture Optimization for Efficient
Inference
- arxiv url: http://arxiv.org/abs/2104.12766v1
- Date: Mon, 26 Apr 2021 17:59:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 16:18:57.138528
- Title: HAO: Hardware-aware neural Architecture Optimization for Efficient
Inference
- Title(参考訳): HAO:効率的な推論のためのハードウェア対応ニューラルアーキテクチャ最適化
- Authors: Zhen Dong, Yizhao Gao, Qijing Huang, John Wawrzynek, Hayden K.H. So,
Kurt Keutzer
- Abstract要約: ニューラルネットワーク探索アルゴリズムの設計空間を縮小するための整数プログラミングアルゴリズムを開発する。
私たちのアルゴリズムは、フレームレート50でImageNetの72.5%のトップ-1精度を達成し、MnasNetよりも60%高速で、比較精度でFBNetよりも135%高速です。
- 参考スコア(独自算出の注目度): 25.265181492143107
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatic algorithm-hardware co-design for DNN has shown great success in
improving the performance of DNNs on FPGAs. However, this process remains
challenging due to the intractable search space of neural network architectures
and hardware accelerator implementation. Differing from existing hardware-aware
neural architecture search (NAS) algorithms that rely solely on the expensive
learning-based approaches, our work incorporates integer programming into the
search algorithm to prune the design space. Given a set of hardware resource
constraints, our integer programming formulation directly outputs the optimal
accelerator configuration for mapping a DNN subgraph that minimizes latency. We
use an accuracy predictor for different DNN subgraphs with different
quantization schemes and generate accuracy-latency pareto frontiers. With low
computational cost, our algorithm can generate quantized networks that achieve
state-of-the-art accuracy and hardware performance on Xilinx Zynq (ZU3EG) FPGA
for image classification on ImageNet dataset. The solution searched by our
algorithm achieves 72.5% top-1 accuracy on ImageNet at framerate 50, which is
60% faster than MnasNet and 135% faster than FBNet with comparable accuracy.
- Abstract(参考訳): DNNの自動設計はFPGA上でのDNNの性能向上に大きく貢献している。
しかし、ニューラルネットワークアーキテクチャとハードウェアアクセラレータ実装の難解な検索スペースのため、このプロセスは依然として困難である。
従来のハードウェア対応ニューラルアーキテクチャサーチ(NAS)アルゴリズムと異なり、高価な学習ベースのアプローチに依存しているため、我々は整数プログラミングを検索アルゴリズムに組み込んで設計空間を創出する。
ハードウェアリソースの制約が与えられた場合、整数プログラミングの定式化は、遅延を最小限に抑えるDNNサブグラフをマッピングするための最適なアクセラレータ構成を直接出力する。
異なる量子化スキームを持つdnnサブグラフに対する精度予測器を用いて精度・相対性パレートフロンティアを生成する。
計算コストの低いアルゴリズムでは, Xilinx Zynq (ZU3EG) FPGA 上で画像分類のための最先端の精度とハードウェア性能を実現する量子ネットワークを生成することができる。
このアルゴリズムによって探索された解は、フレームレート50でImageNetの72.5%のトップ-1精度を達成し、これはMnasNetより60%速く、FBNetより135%速く、精度は同等である。
関連論文リスト
- HAPM -- Hardware Aware Pruning Method for CNN hardware accelerators in resource constrained devices [44.99833362998488]
本研究はFPGAデバイスに実装可能な汎用ハードウェアアーキテクチャを提案する。
設計の推論速度は、リソース制約の異なるFPGAデバイス上で評価される。
ハードウェア対応プルーニングアルゴリズムは,標準アルゴリズムを用いたネットワークプルーニングに比べて,推論時間45%の顕著な改善を実現していることを示す。
論文 参考訳(メタデータ) (2024-08-26T07:27:12Z) - Quasar-ViT: Hardware-Oriented Quantization-Aware Architecture Search for Vision Transformers [56.37495946212932]
視覚変換器(ViT)は、畳み込みニューラルネットワーク(CNN)と比較して、コンピュータビジョンタスクにおいて優れた精度を示す。
ハードウェア指向の量子化対応アーキテクチャ検索フレームワークであるQuasar-ViTを提案する。
論文 参考訳(メタデータ) (2024-07-25T16:35:46Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - OMPQ: Orthogonal Mixed Precision Quantization [64.59700856607017]
混合精度量子化は、ハードウェアの多重ビット幅演算を利用して、ネットワーク量子化の全ポテンシャルを解き放つ。
本稿では、整数プログラミングの損失と高い相関関係にあるネットワーク性の概念であるプロキシメトリックを最適化することを提案する。
このアプローチは、量子化精度にほとんど妥協することなく、検索時間と必要なデータ量を桁違いに削減する。
論文 参考訳(メタデータ) (2021-09-16T10:59:33Z) - FLASH: Fast Neural Architecture Search with Hardware Optimization [7.263481020106725]
ニューラルアーキテクチャサーチ(NAS)は、効率的かつ高性能なディープニューラルネットワーク(DNN)を設計するための有望な手法である
本稿では,実ハードウェアプラットフォーム上でのDNNの精度と性能を協調的に最適化する,非常に高速なNAS手法であるFLASHを提案する。
論文 参考訳(メタデータ) (2021-08-01T23:46:48Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - Automated Design Space Exploration for optimised Deployment of DNN on
Arm Cortex-A CPUs [13.628734116014819]
組み込みデバイスにおけるディープラーニングは、ディープニューラルネットワーク(DNN)のデプロイを最適化する多くの方法の開発を促している。
テストし、グローバルに最適化されたソリューションを得るには、アプローチの空間が大きすぎるため、クロスレベル最適化に関する研究が不足している。
我々は、Arm Cortex-A CPUプラットフォーム上での最先端DNNの一連の結果を示し、最大4倍の性能向上とメモリの2倍以上の削減を実現した。
論文 参考訳(メタデータ) (2020-06-09T11:00:06Z) - EDD: Efficient Differentiable DNN Architecture and Implementation
Co-search for Embedded AI Solutions [40.32848001349242]
本稿では,完全同時かつ効率的なDNNアーキテクチャと実装共同研究手法を提案する。
探索変数とハードウェア実装変数を1つの解空間に融合させることにより,共同探索問題を定式化し,アルゴリズムの精度とハードウェア実装品質を最大化する。
論文 参考訳(メタデータ) (2020-05-06T02:37:48Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。