論文の概要: Exploration of Hardware Acceleration Methods for an XNOR Traffic Signs
Classifier
- arxiv url: http://arxiv.org/abs/2104.02303v1
- Date: Tue, 6 Apr 2021 06:01:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-07 14:19:12.871741
- Title: Exploration of Hardware Acceleration Methods for an XNOR Traffic Signs
Classifier
- Title(参考訳): XNOR交通信号分類器のためのハードウェア高速化手法の探索
- Authors: Dominika Przewlocka-Rus, Marcin Kowalczyk, Tomasz Kryjak
- Abstract要約: 本研究では,交通標識分類のためのXNORネットワークの高速化の可能性を検討する。
我々は,約450fpsの推論が可能な,XNORネットワーク用の独自のHDLアクセラレータを提案する。
さらに優れた結果は、Xilinx FINNアクセラレータの2番目の方法で得られ、550フレームレートで入力画像を処理することができます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning algorithms are a key component of many state-of-the-art vision
systems, especially as Convolutional Neural Networks (CNN) outperform most
solutions in the sense of accuracy. To apply such algorithms in real-time
applications, one has to address the challenges of memory and computational
complexity. To deal with the first issue, we use networks with reduced
precision, specifically a binary neural network (also known as XNOR). To
satisfy the computational requirements, we propose to use highly parallel and
low-power FPGA devices. In this work, we explore the possibility of
accelerating XNOR networks for traffic sign classification. The trained binary
networks are implemented on the ZCU 104 development board, equipped with a Zynq
UltraScale+ MPSoC device using two different approaches. Firstly, we propose a
custom HDL accelerator for XNOR networks, which enables the inference with
almost 450 fps. Even better results are obtained with the second method - the
Xilinx FINN accelerator - enabling to process input images with around 550
frame rate. Both approaches provide over 96% accuracy on the test set.
- Abstract(参考訳): ディープラーニングアルゴリズムは多くの最先端のビジョンシステムの主要なコンポーネントであり、特に畳み込みニューラルネットワーク(CNN)は精度においてほとんどのソリューションより優れている。
このようなアルゴリズムをリアルタイムアプリケーションに適用するには、メモリと計算の複雑さの課題に対処する必要がある。
最初の問題に対処するために、精度の低いネットワーク、特にバイナリニューラルネットワーク(XNORとも呼ばれる)を使用します。
計算要求を満たすため,高並列・低消費電力FPGAデバイスを提案する。
本研究では,交通標識分類におけるXNORネットワークの高速化の可能性を検討する。
訓練されたバイナリネットワークは、2つの異なるアプローチを用いてZCU 104開発ボード上に実装され、Zynq UltraScale+ MPSoCデバイスを備えている。
まず、約450fpsで推論が可能なxnorネットワーク用のカスタムhdlアクセラレータを提案する。
さらによい結果が得られたのは、Xilinx FINNアクセラレーターである第2の手法により、約550フレームレートで入力画像を処理することができる。
どちらのアプローチも、テストセットで96%以上の精度を提供する。
関連論文リスト
- Energy Efficient Hardware Acceleration of Neural Networks with
Power-of-Two Quantisation [0.0]
我々は、Zynq UltraScale + MPSoC ZCU104 FPGA上に実装されたPoT重みを持つハードウェアニューラルネットワークアクセラレーターが、均一量子化バージョンよりも少なくとも1.4x$のエネルギー効率を持つことを示す。
論文 参考訳(メタデータ) (2022-09-30T06:33:40Z) - FPGA-based AI Smart NICs for Scalable Distributed AI Training Systems [62.20308752994373]
我々は、フィールドプログラマブルゲートアレイ(FPGA)を用いた分散AI訓練システムのための新しいスマートネットワークインタフェースカード(NIC)を提案する。
提案するFPGAベースのAIスマートNICは,従来のNICを用いたベースラインシステムと比較して,6ノードで1.6倍,32ノードで2.5倍の性能向上が期待できる。
論文 参考訳(メタデータ) (2022-04-22T21:57:00Z) - OMPQ: Orthogonal Mixed Precision Quantization [64.59700856607017]
混合精度量子化は、ハードウェアの多重ビット幅演算を利用して、ネットワーク量子化の全ポテンシャルを解き放つ。
本稿では、整数プログラミングの損失と高い相関関係にあるネットワーク性の概念であるプロキシメトリックを最適化することを提案する。
このアプローチは、量子化精度にほとんど妥協することなく、検索時間と必要なデータ量を桁違いに削減する。
論文 参考訳(メタデータ) (2021-09-16T10:59:33Z) - Binary Complex Neural Network Acceleration on FPGA [19.38270650475235]
Binarized Complex Neural Network (BCNN) は、複雑なデータをリアルタイムに分類する大きな可能性を示している。
我々は、エッジデバイス上で5000フレーム/秒の推論スループットを提供できるBCNNの構造的プルーニングベースのアクセラレーションを提案する。
論文 参考訳(メタデータ) (2021-08-10T17:53:30Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - HAO: Hardware-aware neural Architecture Optimization for Efficient
Inference [25.265181492143107]
ニューラルネットワーク探索アルゴリズムの設計空間を縮小するための整数プログラミングアルゴリズムを開発する。
私たちのアルゴリズムは、フレームレート50でImageNetの72.5%のトップ-1精度を達成し、MnasNetよりも60%高速で、比較精度でFBNetよりも135%高速です。
論文 参考訳(メタデータ) (2021-04-26T17:59:29Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Enabling certification of verification-agnostic networks via
memory-efficient semidefinite programming [97.40955121478716]
本稿では,ネットワークアクティベーションの総数にのみ線形なメモリを必要とする一階二重SDPアルゴリズムを提案する。
L-inf の精度は 1% から 88% ,6% から 40% に改善した。
また,変分オートエンコーダの復号器に対する2次安定性仕様の厳密な検証を行った。
論文 参考訳(メタデータ) (2020-10-22T12:32:29Z) - Fully-parallel Convolutional Neural Network Hardware [0.7829352305480285]
本稿では,ハードウェアにArticial Neural Networks(ANN)を実装するための,新しい電力・面積効率アーキテクチャを提案する。
LENET-5として完全に並列なCNNを1つのFPGAに埋め込んでテストするのが初めてである。
論文 参考訳(メタデータ) (2020-06-22T17:19:09Z) - An FPGA-Based On-Device Reinforcement Learning Approach using Online
Sequential Learning [2.99321624683618]
低コストFPGAデバイスのための軽量デバイス強化学習手法を提案する。
バックプロパゲーションメソッドに依存しないオンデバイスラーニングアプローチに基づく、最近提案されたニューラルネットワークを活用する。
提案手法は低コストFPGAプラットフォームとしてPYNQ-Z1ボード用に設計されている。
論文 参考訳(メタデータ) (2020-05-10T12:37:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。