論文の概要: Algorithm and Hardware Co-design for Reconfigurable CNN Accelerator
- arxiv url: http://arxiv.org/abs/2111.12787v1
- Date: Wed, 24 Nov 2021 20:37:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-29 18:18:34.904150
- Title: Algorithm and Hardware Co-design for Reconfigurable CNN Accelerator
- Title(参考訳): 再構成型cnn加速器のアルゴリズムとハードウェア共同設計
- Authors: Hongxiang Fan, Martin Ferianc, Zhiqiang Que, He Li, Shuanglong Liu,
Xinyu Niu, Wayne Luk
- Abstract要約: ディープニューラルネットワーク(DNN)のためのアルゴリズムハードウェアの共同設計の最近の進歩は、ニューラルネットワークやハードウェア設計を自動設計する可能性を示している。
しかし、高価なトレーニングコストと時間を要するハードウェア実装のため、これは依然として困難な最適化問題である。
本稿では,新しい3相共設計フレームワークを提案する。
ネットワークとハードウェアの構成は精度が2%向上し,レイテンシが2倍26倍,エネルギー効率が8.5倍向上した。
- 参考スコア(独自算出の注目度): 3.1431240233552007
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in algorithm-hardware co-design for deep neural networks
(DNNs) have demonstrated their potential in automatically designing neural
architectures and hardware designs. Nevertheless, it is still a challenging
optimization problem due to the expensive training cost and the time-consuming
hardware implementation, which makes the exploration on the vast design space
of neural architecture and hardware design intractable. In this paper, we
demonstrate that our proposed approach is capable of locating designs on the
Pareto frontier. This capability is enabled by a novel three-phase co-design
framework, with the following new features: (a) decoupling DNN training from
the design space exploration of hardware architecture and neural architecture,
(b) providing a hardware-friendly neural architecture space by considering
hardware characteristics in constructing the search cells, (c) adopting
Gaussian process to predict accuracy, latency and power consumption to avoid
time-consuming synthesis and place-and-route processes. In comparison with the
manually-designed ResNet101, InceptionV2 and MobileNetV2, we can achieve up to
5% higher accuracy with up to 3x speed up on the ImageNet dataset. Compared
with other state-of-the-art co-design frameworks, our found network and
hardware configuration can achieve 2% ~ 6% higher accuracy, 2x ~ 26x smaller
latency and 8.5x higher energy efficiency.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)のためのアルゴリズムハードウェアの共同設計の最近の進歩は、ニューラルネットワークやハードウェア設計を自動設計する可能性を示している。
それでも、高価なトレーニングコストと時間のかかるハードウェア実装のため、依然として最適化の問題であり、ニューラルネットワークとハードウェア設計の広大な設計領域を探求することは難題である。
本稿では,提案手法がパレートフロンティア上に設計を配置できることを示す。
この機能は、以下の新機能を備えた、新しい三相共設計フレームワークによって実現されている。
(a)ハードウェアアーキテクチャとニューラルアーキテクチャの設計空間探索からDNNトレーニングを分離すること。
b)検索セル構築におけるハードウェア特性を考慮したハードウェアフレンドリーなニューラルネットワーク空間の提供。
(c) ガウス過程を用いて精度, レイテンシ, 消費電力を予測し, 時間を要する合成や場所と経路のプロセスを避ける。
手作業で設計されたResNet101、InceptionV2、MobileNetV2と比較して、ImageNetデータセットで最大3倍のスピードで、最大5%高い精度で達成できます。
他の最先端のコデザインフレームワークと比較すると、ネットワークとハードウェアの構成は2%~6%の精度、2倍~26倍のレイテンシと8.5倍のエネルギー効率を実現できます。
関連論文リスト
- Quasar-ViT: Hardware-Oriented Quantization-Aware Architecture Search for Vision Transformers [56.37495946212932]
視覚変換器(ViT)は、畳み込みニューラルネットワーク(CNN)と比較して、コンピュータビジョンタスクにおいて優れた精度を示す。
ハードウェア指向の量子化対応アーキテクチャ検索フレームワークであるQuasar-ViTを提案する。
論文 参考訳(メタデータ) (2024-07-25T16:35:46Z) - Fast GraspNeXt: A Fast Self-Attention Neural Network Architecture for
Multi-task Learning in Computer Vision Tasks for Robotic Grasping on the Edge [80.88063189896718]
アーキテクチャと計算の複雑さが高いと、組み込みデバイスへのデプロイに適さない。
Fast GraspNeXtは、ロボットグルーピングのためのコンピュータビジョンタスクに埋め込まれたマルチタスク学習に適した、高速な自己認識型ニューラルネットワークアーキテクチャである。
論文 参考訳(メタデータ) (2023-04-21T18:07:14Z) - Deep Learning for Real Time Satellite Pose Estimation on Low Power Edge
TPU [58.720142291102135]
本稿では,ニューラルネットワークアーキテクチャを利用したポーズ推定ソフトウェアを提案する。
我々は、低消費電力の機械学習アクセラレーターが宇宙での人工知能の活用を可能にしていることを示す。
論文 参考訳(メタデータ) (2022-04-07T08:53:18Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - ISyNet: Convolutional Neural Networks design for AI accelerator [0.0]
現在の最先端アーキテクチャは、モデル複雑さを考慮して、ニューラルアーキテクチャサーチ(NAS)によって発見されている。
本稿では,ニューラルネットワーク探索空間のハードウェア効率の指標として,行列効率測定(MEM),ハードウェア効率の高い演算からなる探索空間,レイテンシを考慮したスケーリング手法を提案する。
我々は、ImageNet上のNPUデバイスの設計アーキテクチャと、下流の分類および検出タスクの一般化能力の利点を示す。
論文 参考訳(メタデータ) (2021-09-04T20:57:05Z) - Does Form Follow Function? An Empirical Exploration of the Impact of
Deep Neural Network Architecture Design on Hardware-Specific Acceleration [76.35307867016336]
本研究では,深層ニューラルネットワーク設計が推論速度向上の程度に与える影響について検討する。
ハードウェア固有のアクセラレーションを活用することで平均推論速度が380%向上する一方で、マクロアーキテクチャ設計パターンによって推論速度が大幅に変化することを示した。
論文 参考訳(メタデータ) (2021-07-08T23:05:39Z) - RHNAS: Realizable Hardware and Neural Architecture Search [3.5694949627557846]
RHNASは、ハードウェア最適化のための強化学習と、微分可能なニューラルネットワーク探索を組み合わせた手法である。
RHNASは、ImageNetの1.84倍低レイテンシと1.86倍低エネルギー遅延製品(EDP)、CIFAR-10の2.81倍低レイテンシと3.30倍低レイテンシで実現可能なNN-HWの設計を発見した。
論文 参考訳(メタデータ) (2021-06-17T00:15:42Z) - HAO: Hardware-aware neural Architecture Optimization for Efficient
Inference [25.265181492143107]
ニューラルネットワーク探索アルゴリズムの設計空間を縮小するための整数プログラミングアルゴリズムを開発する。
私たちのアルゴリズムは、フレームレート50でImageNetの72.5%のトップ-1精度を達成し、MnasNetよりも60%高速で、比較精度でFBNetよりも135%高速です。
論文 参考訳(メタデータ) (2021-04-26T17:59:29Z) - HSCoNAS: Hardware-Software Co-Design of Efficient DNNs via Neural
Architecture Search [6.522258468923919]
深層ニューラルネットワーク(DNN)の設計を自動化するため,新しいハードウェア対応ニューラルアーキテクチャサーチ(NAS)フレームワークであるHSCoNASを提案する。
この目的を達成するために,まず,ターゲットハードウェア上でのdnnのランタイム遅延を近似する効果的なハードウェア性能モデリング手法を提案する。
また, 動的チャネルスケーリングにより, 指定されたレイテンシとプログレッシブスペースの縮小下での精度を最大化し, 対象ハードウェアに対する検索空間を改良する手法を提案する。
論文 参考訳(メタデータ) (2021-03-11T12:21:21Z) - Rethinking Co-design of Neural Architectures and Hardware Accelerators [31.342964958282092]
我々は,ニューラルアーキテクチャとハードウェアアクセラレータの協調設計の重要性と戦略を体系的に研究する。
実験の結果, 統合探索法は, 従来のプラットフォーム認識型ニューラルアーキテクチャ検索を一貫して上回っていることがわかった。
提案手法は, エッジ加速器のエネルギー消費量を, 同じ精度で最大2倍に削減できる。
論文 参考訳(メタデータ) (2021-02-17T07:55:58Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。