論文の概要: O-HAS: Optical Hardware Accelerator Search for Boosting Both
Acceleration Performance and Development Speed
- arxiv url: http://arxiv.org/abs/2108.07538v1
- Date: Tue, 17 Aug 2021 09:50:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-18 13:04:26.588499
- Title: O-HAS: Optical Hardware Accelerator Search for Boosting Both
Acceleration Performance and Development Speed
- Title(参考訳): O-HAS:光ハードウェアアクセラレータによる高速化性能と開発速度の向上
- Authors: Mengquan Li, Zhongzhi Yu, Yongan Zhang, Yonggan Fu, Yingyan Lin
- Abstract要約: O-HASは、(1)光学的加速器のエネルギーと遅延をDNNモデルパラメータと光学的加速器設計に基づいて正確に正確に正確に予測できるO-Cost予測器、(2)光学的DNN加速器の大規模な設計空間を自動で探索できるO-Searchエンジンの2つの統合イネーラから構成される。
O-Cost PredictorとO-Search Engineの有効性を一貫して検証した。
- 参考スコア(独自算出の注目度): 13.41883640945134
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent breakthroughs and prohibitive complexities of Deep Neural Networks
(DNNs) have excited extensive interest in domain-specific DNN accelerators,
among which optical DNN accelerators are particularly promising thanks to their
unprecedented potential of achieving superior performance-per-watt. However,
the development of optical DNN accelerators is much slower than that of
electrical DNN accelerators. One key challenge is that while many techniques
have been developed to facilitate the development of electrical DNN
accelerators, techniques that support or expedite optical DNN accelerator
design remain much less explored, limiting both the achievable performance and
the innovation development of optical DNN accelerators. To this end, we develop
the first-of-its-kind framework dubbed O-HAS, which for the first time
demonstrates automated Optical Hardware Accelerator Search for boosting both
the acceleration efficiency and development speed of optical DNN accelerators.
Specifically, our O-HAS consists of two integrated enablers: (1) an O-Cost
Predictor, which can accurately yet efficiently predict an optical
accelerator's energy and latency based on the DNN model parameters and the
optical accelerator design; and (2) an O-Search Engine, which can automatically
explore the large design space of optical DNN accelerators and identify the
optimal accelerators (i.e., the micro-architectures and
algorithm-to-accelerator mapping methods) in order to maximize the target
acceleration efficiency. Extensive experiments and ablation studies
consistently validate the effectiveness of both our O-Cost Predictor and
O-Search Engine as well as the excellent efficiency of O-HAS generated optical
accelerators.
- Abstract(参考訳): 近年のDeep Neural Networks(DNN)のブレークスルーと禁止的な複雑さは、ドメイン固有のDNNアクセラレーターに大きな関心を集めている。
しかし、光DNN加速器の開発は電気DNN加速器よりもはるかに遅い。
重要な課題の1つは、電気的DNN加速器の開発を促進するために多くの技術が開発されているが、光学的DNN加速器の設計を支援する技術は、達成可能な性能と光学的DNN加速器の革新的開発の両方を制限し、まだ研究が進んでいないことである。
そこで我々は,光DNN加速器の加速効率と開発速度を向上するために,O-HASと呼ばれる第1世代のフレームワークを開発した。
Specifically, our O-HAS consists of two integrated enablers: (1) an O-Cost Predictor, which can accurately yet efficiently predict an optical accelerator's energy and latency based on the DNN model parameters and the optical accelerator design; and (2) an O-Search Engine, which can automatically explore the large design space of optical DNN accelerators and identify the optimal accelerators (i.e., the micro-architectures and algorithm-to-accelerator mapping methods) in order to maximize the target acceleration efficiency.
O-Cost PredictorとO-Search Engineの両方の有効性と、O-HAS生成した光加速器の優れた効率性を一貫して検証した。
関連論文リスト
- DCP: Learning Accelerator Dataflow for Neural Network via Propagation [52.06154296196845]
この研究は、DNN層の最適なデータフローを人間の努力なしに数秒で自動的に見つけるために、Dataflow Code Propagation (DCP)と呼ばれる効率的なデータ中心のアプローチを提案する。
DCPは、様々な最適化目標を最小化するために、望ましい勾配方向に向けてデータフローコードを効率的に更新する神経予測器を学習する。
例えば、追加のトレーニングデータを使用しないDCPは、数千のサンプルを使用して完全な検索を行うGAMAメソッドを超越している。
論文 参考訳(メタデータ) (2024-10-09T05:16:44Z) - EPIM: Efficient Processing-In-Memory Accelerators based on Epitome [78.79382890789607]
畳み込みのような機能を提供する軽量神経オペレータであるEpitomeを紹介する。
ソフトウェア側では,PIMアクセラレータ上でのエピトームのレイテンシとエネルギを評価する。
ハードウェア効率を向上させるため,PIM対応層設計手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T17:56:39Z) - SpikingJelly: An open-source machine learning infrastructure platform
for spike-based intelligence [51.6943465041708]
スパイキングニューラルネットワーク(SNN)は、高エネルギー効率のニューロモルフィックチップに脳にインスパイアされたインテリジェンスを実現することを目的としている。
我々は、ニューロモルフィックデータセットの事前処理、深層SNNの構築、パラメータの最適化、およびニューロモルフィックチップへのSNNのデプロイのためのフルスタックツールキットをコントリビュートする。
論文 参考訳(メタデータ) (2023-10-25T13:15:17Z) - NASA: Neural Architecture Search and Acceleration for Hardware Inspired
Hybrid Networks [24.95135135092478]
我々はNASAというニューラルアーキテクチャ検索・加速フレームワークを提案する。
自動乗算型DNN開発を可能にし、専用乗算型加速器を統合する。
実験は、達成可能な精度と効率のトレードオフの観点から、NASAのアルゴリズム・ハードウェアの共同設計フレームワークの利点を一貫して評価する。
論文 参考訳(メタデータ) (2022-10-24T16:03:42Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - 2-in-1 Accelerator: Enabling Random Precision Switch for Winning Both
Adversarial Robustness and Efficiency [26.920864182619844]
DNN加速器の対向的堅牢性と効率の両立を目的とした2-in-1加速器を提案する。
具体的には、まず、DNNを敵攻撃から効果的に防御できる乱精度スイッチ(RPS)アルゴリズムを提案する。
さらに,(1)新しい精度・スケール可能なユニットアーキテクチャを特徴とする,新しい精度・スケール可能なアクセラレーションを提案する。
論文 参考訳(メタデータ) (2021-09-11T08:51:01Z) - ROBIN: A Robust Optical Binary Neural Network Accelerator [3.8137985834223507]
ドメイン固有のニューラルネットワークアクセラレータは、エネルギー効率と推論性能の改善により注目されている。
我々は、ヘテロジニアスマイクロリング共振器光デバイスをインテリジェントに統合する、ROBINという新しい光ドメインBNN加速器を提案する。
我々の分析によると、RBBINは最もよく知られている光BNN加速器や多くの電子加速器よりも優れている。
論文 参考訳(メタデータ) (2021-07-12T16:00:32Z) - InstantNet: Automated Generation and Deployment of Instantaneously
Switchable-Precision Networks [65.78061366594106]
可変ビット幅で動作する即時切替可能精度ネットワークを自動生成・展開するInstantNetを提案する。
実験では、提案されたInstantNetは最先端の設計を一貫して上回っている。
論文 参考訳(メタデータ) (2021-04-22T04:07:43Z) - DNA: Differentiable Network-Accelerator Co-Search [36.68587348474986]
そこで我々は,一致したネットワークやアクセラレータを自動的に検索する,差別化可能なネットワーク加速器のコサーチフレームワークであるDNAを提案する。
1)DNNアクセラレータの汎用設計スペースと、アルゴリズム探索を可能にするPyTorchなどのDNNフレームワークとの互換性。
実験およびアブレーション研究により、DNAによって生成されたマッチングネットワークと加速器は、常に最先端(SOTA)のDNNや加速器より優れていることが示されている。
論文 参考訳(メタデータ) (2020-10-28T05:57:16Z) - DNN-Chip Predictor: An Analytical Performance Predictor for DNN
Accelerators with Various Dataflows and Hardware Architectures [30.689015188050405]
近年のディープニューラルネットワーク(DNN)のブレークスルーにより、DNNアクセラレーターの需要が大幅に増加した。
DNN-Chip Predictorは、DNNアクセラレータのエネルギ、スループット、遅延を実際の実装前に正確に予測できる分析性能予測器である。
論文 参考訳(メタデータ) (2020-02-26T02:59:18Z) - Temporal Pulses Driven Spiking Neural Network for Fast Object
Recognition in Autonomous Driving [65.36115045035903]
スパイキングニューラルネットワーク(SNN)を用いた生時間パルスで直接物体認識問題に対処する手法を提案する。
各種データセットを用いて評価した結果,提案手法は最先端の手法に匹敵する性能を示しながら,優れた時間効率を実現している。
論文 参考訳(メタデータ) (2020-01-24T22:58:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。