論文の概要: Deep Patch Visual SLAM
- arxiv url: http://arxiv.org/abs/2408.01654v1
- Date: Sat, 3 Aug 2024 03:51:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-06 19:10:37.594558
- Title: Deep Patch Visual SLAM
- Title(参考訳): Deep Patch Visual SLAM
- Authors: Lahav Lipson, Zachary Teed, Jia Deng,
- Abstract要約: 本稿では,1つのGPU上でのモノクロ視覚SLAMの手法であるDeep Patch Visual (DPV) SLAMを紹介する。
DPV-SLAMは、既存の深いSLAMシステムと比較して、最小限のフレームレートとメモリオーバーヘッド(5-7G)を維持している。
EuRoC と TartanAir の DROID-SLAM に匹敵する精度を実現し,メモリ の 2.5 倍高速動作を実現した。
- 参考スコア(独自算出の注目度): 29.81779535397074
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work in visual SLAM has shown the effectiveness of using deep network backbones. Despite excellent accuracy, however, such approaches are often expensive to run or do not generalize well zero-shot. Their runtime can also fluctuate wildly while their frontend and backend fight for access to GPU resources. To address these problems, we introduce Deep Patch Visual (DPV) SLAM, a method for monocular visual SLAM on a single GPU. DPV-SLAM maintains a high minimum framerate and small memory overhead (5-7G) compared to existing deep SLAM systems. On real-world datasets, DPV-SLAM runs at 1x-4x real-time framerates. We achieve comparable accuracy to DROID-SLAM on EuRoC and TartanAir while running 2.5x faster using a fraction of the memory. DPV-SLAM is an extension to the DPVO visual odometry system; its code can be found in the same repository: https://github.com/princeton-vl/DPVO
- Abstract(参考訳): 視覚SLAMにおける最近の研究は、ディープネットワークバックボーンの使用の有効性を示している。
しかし、精度が優れているにもかかわらず、このような手法は実行するのにコストがかかるか、ゼロショットをうまく一般化しない場合が多い。
フロントエンドとバックエンドがGPUリソースにアクセスするために戦っている間、ランタイムも大きく変動する。
これらの問題に対処するために,1つのGPU上でのモノクロ視覚SLAM法であるDeep Patch Visual (DPV) SLAMを導入する。
DPV-SLAMは、既存の深いSLAMシステムと比較して、最小限のフレームレートとメモリオーバーヘッド(5-7G)を維持している。
実世界のデータセットでは、DPV-SLAMは1x-4xのリアルタイムフレームレートで動作する。
EuRoC と TartanAir の DROID-SLAM に匹敵する精度を実現し,メモリ の 2.5 倍高速動作を実現した。
DPV-SLAMはDPVOビジュアルオドメトリーシステムの拡張である。
関連論文リスト
- Loopy-SLAM: Dense Neural SLAM with Loop Closures [53.11936461015725]
ポーズをグローバルに最適化するLoopy-SLAMと高密度3Dモデルを導入する。
我々は,データ駆動のポイントベースサブマップ生成手法を用いてフレーム・ツー・モデル追跡を行い,グローバルな位置認識を行うことで,オンラインのループクロージャをトリガーする。
合成Replicaおよび実世界のTUM-RGBDおよびScanNetデータセットの評価は、既存の高密度ニューラルネットワークRGBD SLAM法と比較して、追跡、マッピング、レンダリングの精度の競争力または優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-14T18:18:32Z) - Orbeez-SLAM: A Real-time Monocular Visual SLAM with ORB Features and
NeRF-realized Mapping [18.083667773491083]
我々は,事前学習をせずに新しいシーンに適応するビジュアルSLAMを開発し,下流タスクのための高密度マップをリアルタイムに生成する。
Orbeez-SLAMは暗黙の神経表現(NeRF)と視覚計測と協調して目標を達成する。
その結果、SLAMは強いベースラインよりも800倍高速で、より優れたレンダリング結果が得られることがわかった。
論文 参考訳(メタデータ) (2022-09-27T09:37:57Z) - Deep Patch Visual Odometry [66.8086971254714]
ディープパッチ・ビジュアル・オドメトリー(DPVO)はモノクル・ビジュアル・オドメトリー(VO)のための新しいディープラーニングシステムである
DPVOは、時間にわたってイメージパッチを追跡するように設計された、新しいリカレントネットワークアーキテクチャを使用している。
標準ベンチマークでは、DPVOは、学習に基づく最先端のVOシステムを含む、これまでのすべての作業より優れています。
論文 参考訳(メタデータ) (2022-08-08T04:47:38Z) - RWT-SLAM: Robust Visual SLAM for Highly Weak-textured Environments [1.1024591739346294]
本稿では,この問題を解決するためにRWT-SLAMという新しいビジュアルSLAMシステムを提案する。
低テクスチャ環境下で高密度な点マッチングを生成できるLoFTRネットワークを改良し,特徴記述子を生成する。
結果のRWT-SLAMは、TUMやOpenLORISなど、さまざまな公開データセットでテストされる。
論文 参考訳(メタデータ) (2022-07-07T19:24:03Z) - ASH: A Modern Framework for Parallel Spatial Hashing in 3D Perception [91.24236600199542]
ASHは、GPU上の並列空間ハッシュのためのモダンで高性能なフレームワークである。
ASHはより高いパフォーマンスを実現し、よりリッチな機能をサポートし、より少ないコード行を必要とする。
ASHとそのサンプルアプリケーションはOpen3Dでオープンソース化されている。
論文 参考訳(メタデータ) (2021-10-01T16:25:40Z) - DROID-SLAM: Deep Visual SLAM for Monocular, Stereo, and RGB-D Cameras [71.41252518419486]
DROID-SLAMは、新しいディープラーニングベースのSLAMシステムである。
ステレオやRGB-Dビデオを利用して、テスト時にパフォーマンスを向上させることができる。
論文 参考訳(メタデータ) (2021-08-24T17:50:10Z) - OV$^{2}$SLAM : A Fully Online and Versatile Visual SLAM for Real-Time
Applications [59.013743002557646]
OV$2$SLAMは、モノクロカメラとステレオカメラの両方のセットアップ、さまざまなマップスケール、フレームレートを、数ヘルツから数百まで、完全にオンラインのアルゴリズムである。
コミュニティの利益のために、ソースコードを urlhttps://github.com/ov2slam/ov2slam でリリースします。
論文 参考訳(メタデータ) (2021-02-08T08:39:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。