論文の概要: Learning on Hardware: A Tutorial on Neural Network Accelerators and
Co-Processors
- arxiv url: http://arxiv.org/abs/2104.09252v1
- Date: Mon, 19 Apr 2021 12:50:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 13:27:11.259011
- Title: Learning on Hardware: A Tutorial on Neural Network Accelerators and
Co-Processors
- Title(参考訳): ハードウェアに関する学習:ニューラルネットワークアクセラレータとコプロセッサのチュートリアル
- Authors: Lukas Baischer, Matthias Wess, Nima TaheriNejad
- Abstract要約: ディープニューラルネットワーク(dnn)は、複雑なタスクを解決可能にするために、多くのパラメータを考慮に入れることができるという利点がある。
コンピュータビジョンや音声認識では、一般的なアルゴリズムよりも精度が高く、タスクによっては人間の専門家よりも精度が高いものもあります。
近年のDNNの進展に伴い、疾患の診断や自動運転など、多くの応用分野が活用されています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have the advantage that they can take into
account a large number of parameters, which enables them to solve complex
tasks. In computer vision and speech recognition, they have a better accuracy
than common algorithms, and in some tasks, they boast an even higher accuracy
than human experts. With the progress of DNNs in recent years, many other
fields of application such as diagnosis of diseases and autonomous driving are
taking advantage of them. The trend at DNNs is clear: The network size is
growing exponentially, which leads to an exponential increase in computational
effort and required memory size. For this reason, optimized hardware
accelerators are used to increase the performance of the inference of neuronal
networks. However, there are various neural network hardware accelerator
platforms, such as graphics processing units (GPUs), application specific
integrated circuits (ASICs) and field programmable gate arrays (FPGAs). Each of
these platforms offer certain advantages and disadvantages. Also, there are
various methods for reducing the computational effort of DNNs, which are
differently suitable for each hardware accelerator. In this article an overview
of existing neural network hardware accelerators and acceleration methods is
given. Their strengths and weaknesses are shown and a recommendation of
suitable applications is given. In particular, we focus on acceleration of the
inference of convolutional neural networks (CNNs) used for image recognition
tasks. Given that there exist many different hardware architectures. FPGA-based
implementations are well-suited to show the effect of DNN optimization methods
on accuracy and throughput. For this reason, the focus of this work is more on
FPGA-based implementations.
- Abstract(参考訳): ディープニューラルネットワーク(dnn)は、複雑なタスクを解決可能にするために、多くのパラメータを考慮に入れることができるという利点がある。
コンピュータビジョンや音声認識では、一般的なアルゴリズムよりも精度が高く、タスクによっては人間の専門家よりも精度が高いものもあります。
近年のDNNの進展に伴い、病気の診断や自動運転など、多くの応用分野が活用されている。
DNNの傾向は明らかである: ネットワークサイズは指数関数的に増加しており、計算労力と必要なメモリサイズが指数関数的に増加する。
このため、最適化されたハードウェアアクセラレータは、神経ネットワークの推論の性能を高めるために使用される。
しかしながら、グラフィックス処理ユニット(GPU)、アプリケーション固有の集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)など、さまざまなニューラルネットワークハードウェアアクセラレータプラットフォームが存在する。
それぞれのプラットフォームには、何らかのメリットとデメリットがあります。
また、ハードウェアアクセラレーションごとに異なるDNNの計算労力を削減する様々な方法がある。
本稿では,既存のニューラルネットワークハードウェアアクセラレータとアクセラレーション手法の概要を紹介する。
彼らの強みと弱点が示され、適切な応用の推奨が与えられる。
特に,画像認識タスクに使用される畳み込みニューラルネットワーク(cnns)の推論の高速化に注目する。
多くの異なるハードウェアアーキテクチャが存在する。
FPGAベースの実装はDNN最適化手法が精度とスループットに与える影響を示すのに適している。
このため、この研究はFPGAベースの実装に重点を置いている。
関連論文リスト
- Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - FPGA-based AI Smart NICs for Scalable Distributed AI Training Systems [62.20308752994373]
我々は、フィールドプログラマブルゲートアレイ(FPGA)を用いた分散AI訓練システムのための新しいスマートネットワークインタフェースカード(NIC)を提案する。
提案するFPGAベースのAIスマートNICは,従来のNICを用いたベースラインシステムと比較して,6ノードで1.6倍,32ノードで2.5倍の性能向上が期待できる。
論文 参考訳(メタデータ) (2022-04-22T21:57:00Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - E3NE: An End-to-End Framework for Accelerating Spiking Neural Networks
with Emerging Neural Encoding on FPGAs [6.047137174639418]
エンドツーエンドフレームワークのE3NEはFPGAのための効率的なSNN推論ロジックを生成する。
E3NEはハードウェアリソースの50%未満を消費し、20%の電力を消費する一方で、レイテンシを桁違いに低減する。
論文 参考訳(メタデータ) (2021-11-19T04:01:19Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Learning from Event Cameras with Sparse Spiking Convolutional Neural
Networks [0.0]
畳み込みニューラルネットワーク(CNN)は現在、コンピュータビジョン問題のデファクトソリューションとなっている。
イベントカメラとスピーキングニューラルネットワーク(SNN)を用いたエンドツーエンドの生物学的インスパイアされたアプローチを提案する。
この手法は、一般的なディープラーニングフレームワークPyTorchを使用して、イベントデータに直接スパーススパイクニューラルネットワークのトレーニングを可能にする。
論文 参考訳(メタデータ) (2021-04-26T13:52:01Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Overview of FPGA deep learning acceleration based on convolutional
neural network [0.76146285961466]
近年、ディープラーニングはますます成熟し、ディープラーニングの一般的なアルゴリズムとして、畳み込みニューラルネットワークは様々な視覚的タスクで広く使用されています。
本稿は,畳み込みの関連理論とアルゴリズムを主に紹介するレビュー記事である。
畳み込みニューラルネットワークに基づく既存のFPGA技術の応用シナリオをまとめ、主にアクセラレータの応用について紹介します。
論文 参考訳(メタデータ) (2020-12-23T12:44:24Z) - DANCE: Differentiable Accelerator/Network Co-Exploration [8.540518473228078]
この研究は、ハードウェアアクセラレーターとネットワークアーキテクチャ設計の共同探索に向けた異なるアプローチを示す。
ハードウェア評価ソフトウェアをニューラルネットワークでモデル化することにより、アクセラレーションアーキテクチャとハードウェアメトリクスの関係は微分可能となる。
提案手法は,既存手法と比較して,精度とハードウェアコストの指標を向上しつつ,比較的短い時間で共同探索を行う。
論文 参考訳(メタデータ) (2020-09-14T07:43:27Z) - Optimizing Memory Placement using Evolutionary Graph Reinforcement
Learning [56.83172249278467]
大規模検索空間を対象とした進化グラフ強化学習(EGRL)を提案する。
我々は、推論のために、Intel NNP-Iチップ上で、我々のアプローチを直接訓練し、検証する。
また,NNP-Iコンパイラと比較して28~78%の高速化を実現している。
論文 参考訳(メタデータ) (2020-07-14T18:50:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。