論文の概要: cuVSLAM: CUDA accelerated visual odometry
- arxiv url: http://arxiv.org/abs/2506.04359v1
- Date: Wed, 04 Jun 2025 18:20:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.369786
- Title: cuVSLAM: CUDA accelerated visual odometry
- Title(参考訳): CUVSLAM:CUDAアクセラレーション型視覚計測装置
- Authors: Alexander Korovko, Dmitry Slepichev, Alexander Efitorov, Aigul Dzhumamuratova, Viktor Kuznetsov, Hesam Rabeti, Joydeep Biswas,
- Abstract要約: cuVSLAMは、視覚的同時ローカライゼーションとマッピングのための最先端のソリューションである。
複数のRGBと深度カメラ、慣性測定ユニットなど、さまざまなビジュアル慣性センサースイートで操作できる。
- 参考スコア(独自算出の注目度): 74.84056831087692
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Accurate and robust pose estimation is a key requirement for any autonomous robot. We present cuVSLAM, a state-of-the-art solution for visual simultaneous localization and mapping, which can operate with a variety of visual-inertial sensor suites, including multiple RGB and depth cameras, and inertial measurement units. cuVSLAM supports operation with as few as one RGB camera to as many as 32 cameras, in arbitrary geometric configurations, thus supporting a wide range of robotic setups. cuVSLAM is specifically optimized using CUDA to deploy in real-time applications with minimal computational overhead on edge-computing devices such as the NVIDIA Jetson. We present the design and implementation of cuVSLAM, example use cases, and empirical results on several state-of-the-art benchmarks demonstrating the best-in-class performance of cuVSLAM.
- Abstract(参考訳): 正確で堅牢なポーズ推定は、自律ロボットにとって重要な要件である。
本稿では,複数のRGB,深度カメラ,慣性測定ユニットなど,さまざまな視覚的慣性センサースイートで動作可能な,視覚的同時位置決めとマッピングのための最先端ソリューションであるcuVSLAMを提案する。
cuVSLAMは1台のRGBカメラから32台のカメラまで、任意の幾何学的構成で運用をサポートしており、幅広いロボット装置をサポートしている。
cuVSLAMはCUDAを使用して、NVIDIA Jetsonのようなエッジコンピューティングデバイスに最小限の計算オーバーヘッドで、リアルタイムアプリケーションにデプロイするように特別に最適化されている。
本稿では, cuVSLAMの設計と実装, 例えばユースケース, および, cuVSLAMの最高性能を示すいくつかの最先端ベンチマークにおける実証結果について述べる。
関連論文リスト
- MM3DGS SLAM: Multi-modal 3D Gaussian Splatting for SLAM Using Vision, Depth, and Inertial Measurements [59.70107451308687]
カメラ画像と慣性測定による地図表現に3Dガウスアンを用いることで、精度の高いSLAMが実現できることを示す。
我々の手法であるMM3DGSは、より高速なスケール認識と軌道追跡の改善により、事前レンダリングの限界に対処する。
また,カメラと慣性測定ユニットを備えた移動ロボットから収集したマルチモーダルデータセットUT-MMもリリースした。
論文 参考訳(メタデータ) (2024-04-01T04:57:41Z) - U-ARE-ME: Uncertainty-Aware Rotation Estimation in Manhattan Environments [18.534567960292403]
本稿では、未校正RGB画像からの不確実性とともに、カメラ回転を推定するアルゴリズムであるU-ARE-MEを提案する。
実験の結果,U-ARE-MEはRGB-D法と互換性があり,特徴量ベースのSLAM法よりも頑健であることがわかった。
論文 参考訳(メタデータ) (2024-03-22T19:14:28Z) - Anyview: Generalizable Indoor 3D Object Detection with Variable Frames [63.51422844333147]
我々は,AnyViewという新しい3D検出フレームワークを実用化するために提案する。
本手法は, 単純かつクリーンなアーキテクチャを用いて, 高い一般化性と高い検出精度を実現する。
論文 参考訳(メタデータ) (2023-10-09T02:15:45Z) - Neural Implicit Dense Semantic SLAM [83.04331351572277]
本稿では,屋内シーンのメモリ効率,高密度な3次元形状,セマンティックセマンティックセグメンテーションをオンラインで学習する新しいRGBD vSLAMアルゴリズムを提案する。
私たちのパイプラインは、従来の3Dビジョンベースのトラッキングとループクローズとニューラルフィールドベースのマッピングを組み合わせたものです。
提案アルゴリズムはシーン認識を大幅に向上させ,様々なロボット制御問題を支援する。
論文 参考訳(メタデータ) (2023-04-27T23:03:52Z) - Visual Odometry for RGB-D Cameras [3.655021726150368]
本稿では,静止環境を走行する移動RGB-Dカメラの高速かつ高精度な計測手法を開発した。
提案アルゴリズムは,SURF を特徴抽出器として,RANSAC を用いて結果をフィルタリングし,最小平均角を使って連続するビデオフレーム間の6つのパラメータの剛性変換を推定する。
論文 参考訳(メタデータ) (2022-03-28T21:49:12Z) - Unified Multi-Modal Landmark Tracking for Tightly Coupled
Lidar-Visual-Inertial Odometry [5.131684964386192]
視覚,ライダー,慣性情報を協調的に最適化するモバイルプラットフォームのための効率的なマルチセンサ・オドメトリーシステムを提案する。
ライダー点雲から3次元線と平面原始体を抽出する新しい手法を提案する。
システムは、脚のあるロボットによる地下探査や、動的に動くハンドヘルドデバイスによる屋外スキャンなど、さまざまなプラットフォームやシナリオでテストされてきた。
論文 参考訳(メタデータ) (2020-11-13T09:54:03Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z) - Redesigning SLAM for Arbitrary Multi-Camera Systems [51.81798192085111]
SLAMシステムにより多くのカメラを追加することで、堅牢性と精度が向上するが、視覚的なフロントエンドの設計は大幅に複雑になる。
本研究では,任意のマルチカメラ装置で動作する適応SLAMシステムを提案する。
これらの修正を応用した最先端の視覚慣性計測装置を試作し, 改良したパイプラインが広い範囲のカメラ装置に適応可能であることを示す実験結果を得た。
論文 参考訳(メタデータ) (2020-03-04T11:44:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。