論文の概要: FP-Stereo: Hardware-Efficient Stereo Vision for Embedded Applications
- arxiv url: http://arxiv.org/abs/2006.03250v4
- Date: Wed, 1 Jul 2020 09:20:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 04:38:24.306101
- Title: FP-Stereo: Hardware-Efficient Stereo Vision for Embedded Applications
- Title(参考訳): FP-Stereo: 組み込みアプリケーションのためのハードウェア効率の良いステレオビジョン
- Authors: Jieru Zhao, Tingyuan Liang, Liang Feng, Wenchao Ding, Sharad Sinha,
Wei Zhang and Shaojie Shen
- Abstract要約: FPGA上で高速なステレオマッチングパイプラインを自動構築するためのFP-Stereoを提案する。
FP-Stereoはオープンソースなハードウェア効率のライブラリで構成されており、デザイナは即座にその実装を入手することができる。
FP-Stereoは6.08%のエラー、2倍の高速化、リソース使用量の30%の削減、エネルギー消費の40%の削減など、あらゆる面から最先端FPGA設計よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 32.50949615316486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fast and accurate depth estimation, or stereo matching, is essential in
embedded stereo vision systems, requiring substantial design effort to achieve
an appropriate balance among accuracy, speed and hardware cost. To reduce the
design effort and achieve the right balance, we propose FP-Stereo for building
high-performance stereo matching pipelines on FPGAs automatically. FP-Stereo
consists of an open-source hardware-efficient library, allowing designers to
obtain the desired implementation instantly. Diverse methods are supported in
our library for each stage of the stereo matching pipeline and a series of
techniques are developed to exploit the parallelism and reduce the resource
overhead. To improve the usability, FP-Stereo can generate synthesizable C code
of the FPGA accelerator with our optimized HLS templates automatically. To
guide users for the right design choice meeting specific application
requirements, detailed comparisons are performed on various configurations of
our library to investigate the accuracy/speed/cost trade-off. Experimental
results also show that FP-Stereo outperforms the state-of-the-art FPGA design
from all aspects, including 6.08% lower error, 2x faster speed, 30% less
resource usage and 40% less energy consumption. Compared to GPU designs,
FP-Stereo achieves the same accuracy at a competitive speed while consuming
much less energy.
- Abstract(参考訳): 高速かつ正確な深度推定(ステレオマッチング)は組込みステレオビジョンシステムにおいて必須であり、精度、速度、ハードウェアコストの適切なバランスを達成するためにかなりの設計努力を必要とする。
設計の労力を削減し、適切なバランスを達成するため、FPGA上で高速なステレオマッチングパイプラインを自動構築するFP-Stereoを提案する。
FP-Stereoはオープンソースなハードウェア効率のライブラリで構成されており、デザイナは即座にその実装を入手することができる。
ステレオマッチングパイプラインの各ステージにおいて,多様な手法がライブラリでサポートされ,並列性を活用し,リソースオーバーヘッドを削減するための一連の手法が開発されている。
ユーザビリティを向上させるため、FP-StereoはFPGAアクセラレータの合成可能なCコードを自動的に生成する。
特定のアプリケーション要件を満たす適切な設計選択をユーザにガイドするために、ライブラリのさまざまな構成について詳細な比較を行い、精度/速度/コストトレードオフを調査します。
実験の結果、FP-Stereoは6.08%のエラー、2倍の高速化、2倍のリソース使用率、40%のエネルギー消費など、あらゆる面から最先端FPGA設計よりも優れていた。
GPU設計と比較して、FP-Stereoは競争速度で同じ精度を達成し、エネルギーをはるかに消費する。
関連論文リスト
- Quasar-ViT: Hardware-Oriented Quantization-Aware Architecture Search for Vision Transformers [56.37495946212932]
視覚変換器(ViT)は、畳み込みニューラルネットワーク(CNN)と比較して、コンピュータビジョンタスクにおいて優れた精度を示す。
ハードウェア指向の量子化対応アーキテクチャ検索フレームワークであるQuasar-ViTを提案する。
論文 参考訳(メタデータ) (2024-07-25T16:35:46Z) - LightStereo: Channel Boost Is All Your Need for Efficient 2D Cost Aggregation [27.00836175513738]
LightStereoは、マッチングプロセスを加速するために作られた最先端のステレオマッチングネットワークである。
私たちのブレークスルーは、3Dコストボリュームのチャネル次元に特化してパフォーマンスを向上させることです。
LightStereoは、SceneFlowデータセットで競合するEPEメトリックを達成し、最低でも22GFLOPと17msのランタイムを必要とする。
論文 参考訳(メタデータ) (2024-06-28T11:11:24Z) - HARFLOW3D: A Latency-Oriented 3D-CNN Accelerator Toolflow for HAR on
FPGA Devices [71.45672882756001]
本研究では,3次元畳み込みニューラルネットワークをFPGAにマッピングするための,新しいストリーミングアーキテクチャベースのツールフローを提案する。
HARFLOW3Dツールフローは、ONNXフォーマットで3D CNNを入力し、FPGAの特性を記述する。
ツールフローが幅広いモデルやデバイスをサポートする能力は、様々な3D CNNとFPGAシステムペアに関する数多くの実験を通して示される。
論文 参考訳(メタデータ) (2023-03-30T08:25:27Z) - Data-Model-Circuit Tri-Design for Ultra-Light Video Intelligence on Edge
Devices [90.30316433184414]
本稿では,HDビデオストリーム上での高スループット,低コスト,高精度MOTのためのデータモデル・ハードウエア・トリデザイン・フレームワークを提案する。
現状のMOTベースラインと比較して、我々の三設計アプローチは12.5倍の遅延低減、20.9倍のフレームレート改善、5.83倍の低消費電力、9.78倍のエネルギー効率を実現でき、精度は低下しない。
論文 参考訳(メタデータ) (2022-10-16T16:21:40Z) - Optimization of FPGA-based CNN Accelerators Using Metaheuristics [1.854931308524932]
畳み込みニューラルネットワーク(CNN)は、多くの分野における問題解決能力を実証している。
FPGAはCNN推論を加速する関心が高まっている。
FPGAベースのCNNアクセラレータの現在のトレンドは、複数の畳み込み層プロセッサ(CLP)を実装することである。
論文 参考訳(メタデータ) (2022-09-22T18:57:49Z) - Auto-ViT-Acc: An FPGA-Aware Automatic Acceleration Framework for Vision
Transformer with Mixed-Scheme Quantization [78.18328503396057]
コンピュータビジョンタスクにおいて、視覚変換器(ViT)は大幅に精度が向上している。
本研究は,提案した混合スキーム量子化に基づくFPGA対応自動ViT加速フレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-10T05:54:46Z) - Open-source FPGA-ML codesign for the MLPerf Tiny Benchmark [11.575901540758574]
我々は,フィールドプログラマブルゲートアレイ(FPGA)プラットフォーム上でのTiny Inference Benchmarkの開発経験を示す。
我々は、FPGA上で最適化されたニューラルネットワークのAIハードウェアコーデックを民主化することを目的として、オープンソースのhls4mlとFINN perJを使用している。
ソリューションはシステムオンチップ(Pynq-Z2)と純粋なFPGA(Arty A7-100T)プラットフォームにデプロイされる。
論文 参考訳(メタデータ) (2022-06-23T15:57:17Z) - VAQF: Fully Automatic Software-hardware Co-design Framework for Low-bit
Vision Transformer [121.85581713299918]
量子化ビジョントランス(ViT)のためのFPGAプラットフォーム上で推論アクセラレータを構築するフレームワークVAQFを提案する。
モデル構造と所望のフレームレートから、VAQFはアクティベーションに必要な量子化精度を自動的に出力する。
FPGA上でのViTアクセラレーションに量子化が組み込まれたのはこれが初めてである。
論文 参考訳(メタデータ) (2022-01-17T20:27:52Z) - HALF: Holistic Auto Machine Learning for FPGAs [1.9146960682777232]
ディープニューラルネットワーク(DNN)は、画像や自然言語処理などの組み込みシステムに関連する領域において、複雑な問題を解決することができる。
特定のFPGAプラットフォームにDNNを効率よく実装するためには、例えばエネルギー効率など、膨大な設計パラメータを考慮する必要がある。
FPGA上でのDNN実装の質は, 自動的, 全体的設計手法により大幅に向上する。
論文 参考訳(メタデータ) (2021-06-28T14:45:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。