論文の概要: Deep Patch Visual SLAM
- arxiv url: http://arxiv.org/abs/2408.01654v1
- Date: Sat, 3 Aug 2024 03:51:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-06 19:10:37.594558
- Title: Deep Patch Visual SLAM
- Title(参考訳): Deep Patch Visual SLAM
- Authors: Lahav Lipson, Zachary Teed, Jia Deng,
- Abstract要約: 本稿では,1つのGPU上でのモノクロ視覚SLAMの手法であるDeep Patch Visual (DPV) SLAMを紹介する。
DPV-SLAMは、既存の深いSLAMシステムと比較して、最小限のフレームレートとメモリオーバーヘッド(5-7G)を維持している。
EuRoC と TartanAir の DROID-SLAM に匹敵する精度を実現し,メモリ の 2.5 倍高速動作を実現した。
- 参考スコア(独自算出の注目度): 29.81779535397074
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work in visual SLAM has shown the effectiveness of using deep network backbones. Despite excellent accuracy, however, such approaches are often expensive to run or do not generalize well zero-shot. Their runtime can also fluctuate wildly while their frontend and backend fight for access to GPU resources. To address these problems, we introduce Deep Patch Visual (DPV) SLAM, a method for monocular visual SLAM on a single GPU. DPV-SLAM maintains a high minimum framerate and small memory overhead (5-7G) compared to existing deep SLAM systems. On real-world datasets, DPV-SLAM runs at 1x-4x real-time framerates. We achieve comparable accuracy to DROID-SLAM on EuRoC and TartanAir while running 2.5x faster using a fraction of the memory. DPV-SLAM is an extension to the DPVO visual odometry system; its code can be found in the same repository: https://github.com/princeton-vl/DPVO
- Abstract(参考訳): 視覚SLAMにおける最近の研究は、ディープネットワークバックボーンの使用の有効性を示している。
しかし、精度が優れているにもかかわらず、このような手法は実行するのにコストがかかるか、ゼロショットをうまく一般化しない場合が多い。
フロントエンドとバックエンドがGPUリソースにアクセスするために戦っている間、ランタイムも大きく変動する。
これらの問題に対処するために,1つのGPU上でのモノクロ視覚SLAM法であるDeep Patch Visual (DPV) SLAMを導入する。
DPV-SLAMは、既存の深いSLAMシステムと比較して、最小限のフレームレートとメモリオーバーヘッド(5-7G)を維持している。
実世界のデータセットでは、DPV-SLAMは1x-4xのリアルタイムフレームレートで動作する。
EuRoC と TartanAir の DROID-SLAM に匹敵する精度を実現し,メモリ の 2.5 倍高速動作を実現した。
DPV-SLAMはDPVOビジュアルオドメトリーシステムの拡張である。
関連論文リスト
- DROID-Splat: Combining end-to-end SLAM with 3D Gaussian Splatting [3.2771631221674333]
本稿では,エンドツーエンドトラッカーをベースとしたSLAMシステムを導入し,最近の3次元ガウス切削技術に基づくレンダラーで拡張する。
フレームワーク textbfDroidSplat は、共通のSLAMベンチマーク上での SotA のトラッキングとレンダリングの結果を達成する。
論文 参考訳(メタデータ) (2024-11-26T18:25:51Z) - High-Speed Stereo Visual SLAM for Low-Powered Computing Devices [35.76305042835835]
本稿では,Jetson-SLAM と呼ばれる,GPU で高速化された Stereo Visual SLAM の設計を提案する。
NVIDIAの低消費電力10W Jetson-NX組み込みコンピュータ上で60FPS以上のフレーム処理速度を示す。
論文 参考訳(メタデータ) (2024-10-05T09:16:44Z) - EvenNICER-SLAM: Event-based Neural Implicit Encoding SLAM [69.83383687049994]
密集した視覚的同時局所化とマッピングのための新しいアプローチである EvenNICER-SLAM を提案する。
EvenNICER-SLAMは、絶対輝度ではなく強度変化に対応するイベントカメラを内蔵している。
以上の結果から,イベントカメラによる高密度SLAMシステムの高速カメラ動作に対する堅牢性向上の可能性が示唆された。
論文 参考訳(メタデータ) (2024-10-04T13:52:01Z) - Loopy-SLAM: Dense Neural SLAM with Loop Closures [53.11936461015725]
ポーズをグローバルに最適化するLoopy-SLAMと高密度3Dモデルを導入する。
我々は,データ駆動のポイントベースサブマップ生成手法を用いてフレーム・ツー・モデル追跡を行い,グローバルな位置認識を行うことで,オンラインのループクロージャをトリガーする。
合成Replicaおよび実世界のTUM-RGBDおよびScanNetデータセットの評価は、既存の高密度ニューラルネットワークRGBD SLAM法と比較して、追跡、マッピング、レンダリングの精度の競争力または優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-14T18:18:32Z) - Orbeez-SLAM: A Real-time Monocular Visual SLAM with ORB Features and
NeRF-realized Mapping [18.083667773491083]
我々は,事前学習をせずに新しいシーンに適応するビジュアルSLAMを開発し,下流タスクのための高密度マップをリアルタイムに生成する。
Orbeez-SLAMは暗黙の神経表現(NeRF)と視覚計測と協調して目標を達成する。
その結果、SLAMは強いベースラインよりも800倍高速で、より優れたレンダリング結果が得られることがわかった。
論文 参考訳(メタデータ) (2022-09-27T09:37:57Z) - Deep Patch Visual Odometry [66.8086971254714]
ディープパッチ・ビジュアル・オドメトリー(DPVO)はモノクル・ビジュアル・オドメトリー(VO)のための新しいディープラーニングシステムである
DPVOは、時間にわたってイメージパッチを追跡するように設計された、新しいリカレントネットワークアーキテクチャを使用している。
標準ベンチマークでは、DPVOは、学習に基づく最先端のVOシステムを含む、これまでのすべての作業より優れています。
論文 参考訳(メタデータ) (2022-08-08T04:47:38Z) - DROID-SLAM: Deep Visual SLAM for Monocular, Stereo, and RGB-D Cameras [71.41252518419486]
DROID-SLAMは、新しいディープラーニングベースのSLAMシステムである。
ステレオやRGB-Dビデオを利用して、テスト時にパフォーマンスを向上させることができる。
論文 参考訳(メタデータ) (2021-08-24T17:50:10Z) - OV$^{2}$SLAM : A Fully Online and Versatile Visual SLAM for Real-Time
Applications [59.013743002557646]
OV$2$SLAMは、モノクロカメラとステレオカメラの両方のセットアップ、さまざまなマップスケール、フレームレートを、数ヘルツから数百まで、完全にオンラインのアルゴリズムである。
コミュニティの利益のために、ソースコードを urlhttps://github.com/ov2slam/ov2slam でリリースします。
論文 参考訳(メタデータ) (2021-02-08T08:39:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。