論文の概要: Faster than Fast: Accelerating Oriented FAST Feature Detection on Low-end Embedded GPUs
- arxiv url: http://arxiv.org/abs/2506.07164v1
- Date: Sun, 08 Jun 2025 14:30:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.696591
- Title: Faster than Fast: Accelerating Oriented FAST Feature Detection on Low-end Embedded GPUs
- Title(参考訳): 高速より速い:ローエンド組込みGPUにおける指向性FAST特徴検出の高速化
- Authors: Qiong Chang, Xinyuan Chen, Xiang Li, Weimin Wang, Jun Miyazaki,
- Abstract要約: 本稿では,ローエンド組込みGPUにおける指向性FAST特徴検出を高速化する2つの手法を提案する。
Jetson TX2組み込みGPUの実験では、GPUをサポートする広く使われているOpenCVと比較して平均速度が7.3倍以上に向上した。
- 参考スコア(独自算出の注目度): 11.639825636679454
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The visual-based SLAM (Simultaneous Localization and Mapping) is a technology widely used in applications such as robotic navigation and virtual reality, which primarily focuses on detecting feature points from visual images to construct an unknown environmental map and simultaneously determines its own location. It usually imposes stringent requirements on hardware power consumption, processing speed and accuracy. Currently, the ORB (Oriented FAST and Rotated BRIEF)-based SLAM systems have exhibited superior performance in terms of processing speed and robustness. However, they still fall short of meeting the demands for real-time processing on mobile platforms. This limitation is primarily due to the time-consuming Oriented FAST calculations accounting for approximately half of the entire SLAM system. This paper presents two methods to accelerate the Oriented FAST feature detection on low-end embedded GPUs. These methods optimize the most time-consuming steps in Oriented FAST feature detection: FAST feature point detection and Harris corner detection, which is achieved by implementing a binary-level encoding strategy to determine candidate points quickly and a separable Harris detection strategy with efficient low-level GPU hardware-specific instructions. Extensive experiments on a Jetson TX2 embedded GPU demonstrate an average speedup of over 7.3 times compared to widely used OpenCV with GPU support. This significant improvement highlights its effectiveness and potential for real-time applications in mobile and resource-constrained environments.
- Abstract(参考訳): 視覚ベースのSLAM(Simultaneous Localization and Mapping)は、ロボットナビゲーションや仮想現実などのアプリケーションで広く使われている技術であり、主に視覚画像から特徴点を検出し、未知の環境マップを構築し、同時に位置を決定することに焦点を当てている。
通常、ハードウェアの消費電力、処理速度、精度に厳しい要件を課す。
現在、ORB(Oriented FAST and Rotated BRIEF)ベースのSLAMシステムは、処理速度とロバスト性において優れた性能を示している。
しかし、モバイルプラットフォームでのリアルタイム処理の要求を満たすには至っていない。
この制限は主に、SLAMシステム全体の約半分を占める、時間を要するオブジェクト指向FAST計算によるものである。
本稿では,ローエンド組込みGPUにおける指向性FAST特徴検出を高速化する2つの手法を提案する。
これらの方法は、FAST特徴点検出とHarris corner検出において最も時間を要するステップを最適化する。これは、素早い候補点を決定するバイナリレベルの符号化戦略と、効率的な低レベルのGPUハードウェア固有の命令で分離可能なHarris検出戦略を実装することで達成される。
Jetson TX2組み込みGPUの大規模な実験では、GPUをサポートする広く使用されているOpenCVと比較して平均速度が7.3倍以上に向上した。
この大幅な改善は、モバイルおよびリソース制約のある環境におけるリアルタイムアプリケーションの有効性と可能性を強調している。
関連論文リスト
- Real-Time Human Action Recognition on Embedded Platforms [10.905968330685393]
本研究は,映像に基づくヒューマンアクション認識(HAR)のリアルタイムパフォーマンス課題を4つのコントリビューションで解決する。
RT-HAREは組み込みプラットフォームに適したリアルタイムHARシステムである。
Nvidia Jetson Xavier NXプラットフォームの実験結果によると、RT-HAREはリアルタイムHARを毎秒30フレームのフレームレートで実現している。
論文 参考訳(メタデータ) (2024-09-09T14:35:23Z) - ETAD: A Unified Framework for Efficient Temporal Action Detection [70.21104995731085]
時間的行動検出(TAD)のようなトリミングされていないビデオ理解は、しばしば計算資源に対する膨大な需要の苦痛に悩まされる。
我々は、効率的なエンド・ツー・エンドの時間的行動検出(ETAD)のための統合されたフレームワークを構築している。
ETADはTHUMOS-14とActivityNet-1.3の両方で最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-05-14T21:16:21Z) - MAPLE-Edge: A Runtime Latency Predictor for Edge Devices [80.01591186546793]
汎用ハードウェアの最先端遅延予測器であるMAPLEのエッジデバイス指向拡張であるMAPLE-Edgeを提案する。
MAPLEと比較して、MAPLE-Edgeはより小さなCPUパフォーマンスカウンタを使用して、ランタイムとターゲットデバイスプラットフォームを記述することができる。
また、共通ランタイムを共有するデバイスプール上でトレーニングを行うMAPLEとは異なり、MAPLE-Edgeは実行時に効果的に一般化できることを示す。
論文 参考訳(メタデータ) (2022-04-27T14:00:48Z) - ZippyPoint: Fast Interest Point Detection, Description, and Matching
through Mixed Precision Discretization [71.91942002659795]
我々は,ネットワーク量子化技術を用いて推論を高速化し,計算限定プラットフォームでの利用を可能にする。
バイナリディスクリプタを用いた効率的な量子化ネットワークZippyPointは,ネットワーク実行速度,ディスクリプタマッチング速度,3Dモデルサイズを改善する。
これらの改善は、ホモグラフィー推定、視覚的ローカライゼーション、マップフリーな視覚的再ローカライゼーションのタスクで評価されるように、小さなパフォーマンス劣化をもたらす。
論文 参考訳(メタデータ) (2022-03-07T18:59:03Z) - hARMS: A Hardware Acceleration Architecture for Real-Time Event-Based
Optical Flow [0.0]
イベントベースの視覚センサは、視覚シーンの変化に基づいて、時間分解能の高い非同期イベントストリームを生成する。
イベントデータから光の流れを計算するための既存の解は、開口問題により運動の真の方向を捉えることができない。
本稿では,低消費電力な組込みプラットフォーム上での真の流れのリアルタイム計算を可能にするfARMSアルゴリズムのハードウェア実現について述べる。
論文 参考訳(メタデータ) (2021-12-13T16:27:17Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z) - Dynamic Resource-aware Corner Detection for Bio-inspired Vision Sensors [0.9988653233188148]
本稿では,組込みシステム上でリアルタイムにイベントストリームから非同期コーナーを検出するアルゴリズムを提案する。
提案アルゴリズムは,近隣住民の中から最適なコーナー候補を選択することができ,平均実行時間を59パーセント削減することができる。
論文 参考訳(メタデータ) (2020-10-29T12:01:33Z) - Faster than FAST: GPU-Accelerated Frontend for High-Speed VIO [46.20949184826173]
この研究は、既存のコンピュータビジョンアルゴリズムを改善するために、効率的な低レベルGPUハードウェア固有の命令の適用性に焦点を当てている。
特に、非マックス抑圧とその後の特徴選択は、全体的な画像処理遅延への顕著な寄与である。
論文 参考訳(メタデータ) (2020-03-30T14:16:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。