論文の概要: High-Speed Stereo Visual SLAM for Low-Powered Computing Devices
- arxiv url: http://arxiv.org/abs/2410.04090v1
- Date: Sat, 5 Oct 2024 09:16:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-02 14:11:13.002527
- Title: High-Speed Stereo Visual SLAM for Low-Powered Computing Devices
- Title(参考訳): 低消費電力コンピューティングデバイスのための高速ステレオビジュアルSLAM
- Authors: Ashish Kumar, Jaesik Park, Laxmidhar Behera,
- Abstract要約: 本稿では,Jetson-SLAM と呼ばれる,GPU で高速化された Stereo Visual SLAM の設計を提案する。
NVIDIAの低消費電力10W Jetson-NX組み込みコンピュータ上で60FPS以上のフレーム処理速度を示す。
- 参考スコア(独自算出の注目度): 35.76305042835835
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present an accurate and GPU-accelerated Stereo Visual SLAM design called Jetson-SLAM. It exhibits frame-processing rates above 60FPS on NVIDIA's low-powered 10W Jetson-NX embedded computer and above 200FPS on desktop-grade 200W GPUs, even in stereo configuration and in the multiscale setting. Our contributions are threefold: (i) a Bounded Rectification technique to prevent tagging many non-corner points as a corner in FAST detection, improving SLAM accuracy. (ii) A novel Pyramidal Culling and Aggregation (PyCA) technique that yields robust features while suppressing redundant ones at high speeds by harnessing a GPU device. PyCA uses our new Multi-Location Per Thread culling strategy (MLPT) and Thread-Efficient Warp-Allocation (TEWA) scheme for GPU to enable Jetson-SLAM achieving high accuracy and speed on embedded devices. (iii) Jetson-SLAM library achieves resource efficiency by having a data-sharing mechanism. Our experiments on three challenging datasets: KITTI, EuRoC, and KAIST-VIO, and two highly accurate SLAM backends: Full-BA and ICE-BA show that Jetson-SLAM is the fastest available accurate and GPU-accelerated SLAM system (Fig. 1).
- Abstract(参考訳): 本稿では,Jetson-SLAM と呼ばれる,GPU で高速化された Stereo Visual SLAM の設計を提案する。
NVIDIAの低消費電力10W Jetson-NX組み込みコンピュータで60FPS以上、デスクトップグレードの200W GPUで200FPS以上、ステレオ構成でもマルチスケール設定でもフレーム処理速度を示す。
私たちの貢献は3倍です。
i) FAST検出のコーナーとして多くの非コーナ点のタグ付けを防止し,SLAM精度を向上する境界整流技術。
(II)GPUデバイスを利用して冗長なものを高速に抑制しながらロバストな特徴を生み出す新しいピラミッド・カリング・アグリゲーション(PyCA)技術。
PyCAは、GPU用のMLPT(Multi-Location Per Thread culling Strategy)とTEWA(Thread-Efficient Warp-Allocation)スキームを使用して、Jetson-SLAMが組み込みデバイス上で高い精度とスピードを達成する。
(iii)Jetson-SLAMライブラリは、データ共有機構を持つことにより、資源効率を達成する。
KITTI, EuRoC, KAIST-VIOの3つの挑戦的データセットと高度に正確なSLAMバックエンドに関する実験を行った。
関連論文リスト
- FlashSLAM: Accelerated RGB-D SLAM for Real-Time 3D Scene Reconstruction with Gaussian Splatting [14.130327598928778]
FlashSLAMは、3Dガウススプラッティングを有効かつ堅牢な3Dシーン再構築に活用する新しいSLAMアプローチである。
既存の3DGSベースのSLAMメソッドは、スパースビューの設定や大きなカメラの動きの間、しばしば不足する。
提案手法は,従来手法よりも平均追跡精度を最大92%向上させる。
論文 参考訳(メタデータ) (2024-12-01T05:44:38Z) - Speedy-Splat: Fast 3D Gaussian Splatting with Sparse Pixels and Sparse Primitives [60.217580865237835]
3D Gaussian Splatting (3D-GS)は、3D Gaussian のパラメトリック点雲としてシーンをモデル化することで、新しいビューをリアルタイムにレンダリングすることのできる最近の3Dシーン再構築技術である。
3D-GSでは,レンダリング速度,モデルサイズ,トレーニング時間の大幅な改善を実現し,2つの重要な非効率性に対処する。
我々のSpeedy-Splatアプローチはこれらのテクニックを組み合わせることで、Mip-NeRF 360、Tamps & Temples、Deep Blendingのデータセットから、平均レンダリング速度を6.71ドル(約6万6000円)で加速します。
論文 参考訳(メタデータ) (2024-11-30T20:25:56Z) - DROID-Splat: Combining end-to-end SLAM with 3D Gaussian Splatting [3.2771631221674333]
本稿では,エンドツーエンドトラッカーをベースとしたSLAMシステムを導入し,最近の3次元ガウス切削技術に基づくレンダラーで拡張する。
フレームワーク textbfDroidSplat は、共通のSLAMベンチマーク上での SotA のトラッキングとレンダリングの結果を達成する。
論文 参考訳(メタデータ) (2024-11-26T18:25:51Z) - IG-SLAM: Instant Gaussian SLAM [6.228980850646457]
3D Gaussian SplattingはSLAMシステムにおける代替シーン表現として期待できる結果を示した。
本稿では,RGBのみの高密度SLAMシステムであるIG-SLAMについて述べる。
我々は、最先端のRGBのみのSLAMシステムと競合する性能を示し、高速な動作速度を実現する。
論文 参考訳(メタデータ) (2024-08-02T09:07:31Z) - Benchmarking Jetson Edge Devices with an End-to-end Video-based Anomaly
Detection System [0.0]
監視ビデオから入力されるエンドツーエンドのビデオベース犯罪シーン異常検知システムを実装した。
システムは複数のJetsonエッジデバイス(Nano、AGX Xavier、Orin Nano)で運用されている。
私たちは,さまざまなJetson Edgeデバイスに,AIベースのシステムデプロイメントをDockerテクノロジで実施した経験を提供します。
論文 参考訳(メタデータ) (2023-07-28T17:16:57Z) - FastPillars: A Deployment-friendly Pillar-based 3D Detector [63.0697065653061]
既存のBEVベースの(つまりバードアイビュー)検出器は、トレーニングと推論を高速化するためにスパース・コンボリューション(SPConv)を好む。
FastPillarsは、CenterPoint(SPConvベース)よりも1.8倍のスピードアップと3.8mAPH/L2の改善で、Openデータセットの最先端の精度を提供する
論文 参考訳(メタデータ) (2023-02-05T12:13:27Z) - Using Detection, Tracking and Prediction in Visual SLAM to Achieve
Real-time Semantic Mapping of Dynamic Scenarios [70.70421502784598]
RDS-SLAMは、一般的に使用されているIntel Core i7 CPUのみを使用して、動的シナリオのためのオブジェクトレベルでのセマンティックマップをリアルタイムで構築することができる。
我々は, TUM RGB-DデータセットにおけるRDS-SLAMを評価し, 動的シナリオにおいて, RDS-SLAMはフレームあたり30.3msで動作可能であることを示した。
論文 参考訳(メタデータ) (2022-10-10T11:03:32Z) - PiFeNet: Pillar-Feature Network for Real-Time 3D Pedestrian Detection
from Point Cloud [64.12626752721766]
点雲からの歩行者検出に有効なリアルタイム3D検出器であるPiFeNetを提案する。
歩行者を検知する際の3次元物体検出フレームワークが直面する課題として, 柱の特徴の少ない点と, 点群における歩行者の占有面積の小さい点があげられる。
提案手法は,26fps/秒(FPS)で走行しながら,KITTI歩行者BEVと3Dリーダーボードで第1位にランクされ,Nuscenes検出ベンチマークの最先端性能を実現している。
論文 参考訳(メタデータ) (2021-12-31T13:41:37Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。