論文の概要: Hardware-Aware Feature Extraction Quantisation for Real-Time Visual Odometry on FPGA Platforms
- arxiv url: http://arxiv.org/abs/2507.07903v1
- Date: Thu, 10 Jul 2025 16:37:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 16:40:15.491575
- Title: Hardware-Aware Feature Extraction Quantisation for Real-Time Visual Odometry on FPGA Platforms
- Title(参考訳): FPGAプラットフォーム上でのリアルタイムビジュアルオドメトリーのためのハードウェア・アウェア特徴抽出量子化
- Authors: Mateusz Wasala, Mateusz Smolarczyk, Michal Danilowicz, Tomasz Kryjak,
- Abstract要約: 特徴点の検出と記述が可能な教師なしアーキテクチャの組込み実装を提案する。
FPGA System-on-Chip (SoC) プラットフォーム,具体的にはAMD/Xilinx Zynq UltraScale+ にソリューションを実装した。
これにより、640 x 480ピクセルの画像を最大54fpsで処理することができ、現場での最先端のソリューションよりも優れています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate position estimation is essential for modern navigation systems deployed in autonomous platforms, including ground vehicles, marine vessels, and aerial drones. In this context, Visual Simultaneous Localisation and Mapping (VSLAM) - which includes Visual Odometry - relies heavily on the reliable extraction of salient feature points from the visual input data. In this work, we propose an embedded implementation of an unsupervised architecture capable of detecting and describing feature points. It is based on a quantised SuperPoint convolutional neural network. Our objective is to minimise the computational demands of the model while preserving high detection quality, thus facilitating efficient deployment on platforms with limited resources, such as mobile or embedded systems. We implemented the solution on an FPGA System-on-Chip (SoC) platform, specifically the AMD/Xilinx Zynq UltraScale+, where we evaluated the performance of Deep Learning Processing Units (DPUs) and we also used the Brevitas library and the FINN framework to perform model quantisation and hardware-aware optimisation. This allowed us to process 640 x 480 pixel images at up to 54 fps on an FPGA platform, outperforming state-of-the-art solutions in the field. We conducted experiments on the TUM dataset to demonstrate and discuss the impact of different quantisation techniques on the accuracy and performance of the model in a visual odometry task.
- Abstract(参考訳): 正確な位置推定は、地上車両、船舶、航空ドローンなど、自律的なプラットフォームに展開する現代のナビゲーションシステムにとって不可欠である。
この文脈では、ビジュアルオドメトリーを含むVSLAM(Visual Simultaneous Localisation and Mapping)は、視覚入力データから有能な特徴点を確実に抽出することに大きく依存している。
本研究では,特徴点の検出と記述が可能な教師なしアーキテクチャの組込み実装を提案する。
量子化されたSuperPoint畳み込みニューラルネットワークに基づいている。
我々の目的は、高い検出品質を維持しながらモデルの計算要求を最小限に抑え、モバイルや組み込みシステムのような限られたリソースを持つプラットフォームへの効率的なデプロイを容易にすることである。
我々は、FPGA System-on-Chip (SoC)プラットフォーム、特にAMD/Xilinx Zynq UltraScale+上で、Deep Learning Processing Units (DPU)の性能を評価し、BrevitasライブラリとFINNフレームワークを使用してモデル量子化とハードウェア対応の最適化を行った。
これにより、FPGAプラットフォーム上で最大54fpsで640 x 480ピクセルの画像を処理でき、この分野における最先端のソリューションよりも優れています。
我々は,TUMデータセットを用いた実験を行い,様々な定量化手法が視覚計測タスクにおけるモデルの精度と性能に与える影響を実証し,考察した。
関連論文リスト
- Real-Time Semantic Segmentation of Aerial Images Using an Embedded U-Net: A Comparison of CPU, GPU, and FPGA Workflows [0.0]
本研究では,航空画像のリアルタイムセマンティックセグメンテーションに最適化された軽量なU-Netモデルを提案する。
実世界のデータセット上でのU-Netの精度を維持しながら、モデルのパラメータと乗算(MAC)操作を16。
論文 参考訳(メタデータ) (2025-03-07T08:33:28Z) - Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - AdaLog: Post-Training Quantization for Vision Transformers with Adaptive Logarithm Quantizer [54.713778961605115]
Vision Transformer (ViT) はコンピュータビジョンコミュニティにおいて最も普及しているバックボーンネットワークの1つである。
本稿では,AdaLog(Adaptive Logarithm AdaLog)量子化器を提案する。
論文 参考訳(メタデータ) (2024-07-17T18:38:48Z) - Enhancing Dropout-based Bayesian Neural Networks with Multi-Exit on FPGA [20.629635991749808]
本稿では,フィールドプログラマブルゲートアレイ(FPGA)ベースのアクセラレータを効率よく生成するアルゴリズムとハードウェアの共同設計フレームワークを提案する。
アルゴリズムレベルでは、計算とメモリのオーバーヘッドを低減した、新しいマルチエグジット・ドロップアウトベースのベイズNNを提案する。
ハードウェアレベルでは,提案する効率的なベイズNNのためのFPGAベースのアクセラレータを生成するための変換フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-20T17:08:42Z) - Model-aware reinforcement learning for high-performance Bayesian experimental design in quantum metrology [0.4999814847776097]
量子センサは、様々なパラメータにわたる実験者による操作を可能にすることで、推定中に制御の柔軟性を提供する。
量子力学、推定、仮説テストにおいて、幅広い問題を最適化できる汎用的な手順を導入する。
粒子フィルタリングに基づくモデル認識強化学習(RL)とベイズ推定を組み合わせた。
論文 参考訳(メタデータ) (2023-12-28T12:04:15Z) - Deep Learning Computer Vision Algorithms for Real-time UAVs On-board
Camera Image Processing [77.34726150561087]
本稿では,ディープラーニングに基づくコンピュータビジョンアルゴリズムを用いて,小型UAVのリアルタイムセンサ処理を実現する方法について述べる。
すべてのアルゴリズムは、ディープニューラルネットワークに基づく最先端の画像処理手法を用いて開発されている。
論文 参考訳(メタデータ) (2022-11-02T11:10:42Z) - Deep Learning for Real Time Satellite Pose Estimation on Low Power Edge
TPU [58.720142291102135]
本稿では,ニューラルネットワークアーキテクチャを利用したポーズ推定ソフトウェアを提案する。
我々は、低消費電力の機械学習アクセラレーターが宇宙での人工知能の活用を可能にしていることを示す。
論文 参考訳(メタデータ) (2022-04-07T08:53:18Z) - PnP-DETR: Towards Efficient Visual Analysis with Transformers [146.55679348493587]
近年、DeTRはトランスフォーマーを用いたソリューションビジョンタスクの先駆者であり、画像特徴マップを直接オブジェクト結果に変換する。
最近の変圧器を用いた画像認識モデルとTTは、一貫した効率向上を示す。
論文 参考訳(メタデータ) (2021-09-15T01:10:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。