論文の概要: DROID-SLAM: Deep Visual SLAM for Monocular, Stereo, and RGB-D Cameras
- arxiv url: http://arxiv.org/abs/2108.10869v1
- Date: Tue, 24 Aug 2021 17:50:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-25 14:15:35.973765
- Title: DROID-SLAM: Deep Visual SLAM for Monocular, Stereo, and RGB-D Cameras
- Title(参考訳): DROID-SLAM:モノクラー、ステレオ、RGB-DカメラのためのディープビジュアルSLAM
- Authors: Zachary Teed and Jia Deng
- Abstract要約: DROID-SLAMは、新しいディープラーニングベースのSLAMシステムである。
ステレオやRGB-Dビデオを利用して、テスト時にパフォーマンスを向上させることができる。
- 参考スコア(独自算出の注目度): 71.41252518419486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce DROID-SLAM, a new deep learning based SLAM system. DROID-SLAM
consists of recurrent iterative updates of camera pose and pixelwise depth
through a Dense Bundle Adjustment layer. DROID-SLAM is accurate, achieving
large improvements over prior work, and robust, suffering from substantially
fewer catastrophic failures. Despite training on monocular video, it can
leverage stereo or RGB-D video to achieve improved performance at test time.
The URL to our open source code is https://github.com/princeton-vl/DROID-SLAM.
- Abstract(参考訳): ディープラーニングベースのSLAMシステムであるDROID-SLAMを紹介する。
DROID-SLAMは、Dense Bundle Adjustment層を通して、カメラポーズと画素幅の繰り返し更新で構成される。
DROID-SLAMは正確で、以前の作業よりも大幅に改善され、ロバストで、壊滅的な失敗が著しく少ない。
単眼ビデオのトレーニングにもかかわらず、ステレオやRGB-Dビデオを利用してテスト時にパフォーマンスを向上させることができる。
オープンソースコードのURLはhttps://github.com/princeton-vl/DROID-SLAMです。
関連論文リスト
- DROID-Splat: Combining end-to-end SLAM with 3D Gaussian Splatting [3.2771631221674333]
本稿では,エンドツーエンドトラッカーをベースとしたSLAMシステムを導入し,最近の3次元ガウス切削技術に基づくレンダラーで拡張する。
フレームワーク textbfDroidSplat は、共通のSLAMベンチマーク上での SotA のトラッキングとレンダリングの結果を達成する。
論文 参考訳(メタデータ) (2024-11-26T18:25:51Z) - EvenNICER-SLAM: Event-based Neural Implicit Encoding SLAM [69.83383687049994]
密集した視覚的同時局所化とマッピングのための新しいアプローチである EvenNICER-SLAM を提案する。
EvenNICER-SLAMは、絶対輝度ではなく強度変化に対応するイベントカメラを内蔵している。
以上の結果から,イベントカメラによる高密度SLAMシステムの高速カメラ動作に対する堅牢性向上の可能性が示唆された。
論文 参考訳(メタデータ) (2024-10-04T13:52:01Z) - Deep Patch Visual SLAM [29.81779535397074]
本稿では,1つのGPU上でのモノクロ視覚SLAMの手法であるDeep Patch Visual (DPV) SLAMを紹介する。
DPV-SLAMは、既存の深いSLAMシステムと比較して、最小限のフレームレートとメモリオーバーヘッド(5-7G)を維持している。
EuRoC と TartanAir の DROID-SLAM に匹敵する精度を実現し,メモリ の 2.5 倍高速動作を実現した。
論文 参考訳(メタデータ) (2024-08-03T03:51:47Z) - HDR-GS: Efficient High Dynamic Range Novel View Synthesis at 1000x Speed via Gaussian Splatting [76.5908492298286]
既存のHDR NVS法は主にNeRFに基づいている。
訓練時間は長く、推論速度は遅い。
我々は新しいフレームワークHigh Dynamic Range Gaussian Splatting (-GS)を提案する。
論文 参考訳(メタデータ) (2024-05-24T00:46:58Z) - GlORIE-SLAM: Globally Optimized RGB-only Implicit Encoding Point Cloud SLAM [53.6402869027093]
フレキシブルなニューラルポイントクラウド表現シーンを用いたRGBのみの高密度SLAMシステムを提案する。
また,単分子深度とともに暗黙のポーズと深さを最適化する新しいDSPO層を導入する。
論文 参考訳(メタデータ) (2024-03-28T16:32:06Z) - Volume-DROID: A Real-Time Implementation of Volumetric Mapping with
DROID-SLAM [0.0]
Volume-DROIDは、同時局所化とマッピング(SLAM)のための新しいアプローチである
DROID-SLAM、ポイントクラウド登録、オフザシェルフセマンティックセグメンテーションネットワーク、Convolutional Bayesian Kernel Inference(ConvBKI)を組み合わせたものだ。
我々の手法の重要な革新は、DROID-SLAMとConvolutional Bayesian Kernel Inference (ConvBKI)のリアルタイム融合である。
論文 参考訳(メタデータ) (2023-06-12T03:50:50Z) - Seeing Through The Noisy Dark: Toward Real-world Low-Light Image
Enhancement and Denoising [125.56062454927755]
現実の低照度環境は通常、光やハードウェアの限界が不足しているため、視界が低く、騒音が重い。
我々は、RLED-Net(Real-world Low-light Enhancement & Denoising Network)と呼ばれる新しいエンドツーエンド手法を提案する。
論文 参考訳(メタデータ) (2022-10-02T14:57:23Z) - Deep Parametric 3D Filters for Joint Video Denoising and Illumination
Enhancement in Video Super Resolution [96.89588203312451]
本稿では,Deep Parametric 3D Filters (DP3DF) と呼ばれる新しいパラメトリック表現を提案する。
DP3DFは、ローカル情報を組み込んで、単一エンコーダ/デコーダネットワークにおいて、同時復調、照明強化、SRを効率的に実現している。
また、動的残留フレームを共有バックボーンを介してDP3DFと共同で学習し、SR品質をさらに向上させる。
論文 参考訳(メタデータ) (2022-07-05T03:57:25Z) - Differentiable SLAM-net: Learning Particle SLAM for Visual Navigation [15.677860200178959]
SLAM-netは、粒子フィルタに基づくSLAMアルゴリズムを微分可能なグラフに符号化する。
SLAMアルゴリズムを通じて、タスク指向ニューラルネットワークコンポーネントをバックプロパゲートすることで学習する。
雑音条件下で広く適応したORB-SLAMを著しく上回る。
論文 参考訳(メタデータ) (2021-05-17T03:54:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。