論文の概要: Orbeez-SLAM: A Real-time Monocular Visual SLAM with ORB Features and
NeRF-realized Mapping
- arxiv url: http://arxiv.org/abs/2209.13274v1
- Date: Tue, 27 Sep 2022 09:37:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 16:17:05.723182
- Title: Orbeez-SLAM: A Real-time Monocular Visual SLAM with ORB Features and
NeRF-realized Mapping
- Title(参考訳): Orbeez-SLAM:ORB機能とNeRF実現マッピングを備えたリアルタイム単眼視覚SLAM
- Authors: Chi-Ming Chung, Yang-Che Tseng, Ya-Ching Hsu, Xiang-Qian Shi, Yun-Hung
Hua, Jia-Fong Yeh, Wen-Chin Chen, Yi-Ting Chen and Winston H. Hsu
- Abstract要約: 我々は,事前学習をせずに新しいシーンに適応するビジュアルSLAMを開発し,下流タスクのための高密度マップをリアルタイムに生成する。
Orbeez-SLAMは暗黙の神経表現(NeRF)と視覚計測と協調して目標を達成する。
その結果、SLAMは強いベースラインよりも800倍高速で、より優れたレンダリング結果が得られることがわかった。
- 参考スコア(独自算出の注目度): 18.083667773491083
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A spatial AI that can perform complex tasks through visual signals and
cooperate with humans is highly anticipated. To achieve this, we need a visual
SLAM that easily adapts to new scenes without pre-training and generates dense
maps for downstream tasks in real-time. None of the previous learning-based and
non-learning-based visual SLAMs satisfy all needs due to the intrinsic
limitations of their components. In this work, we develop a visual SLAM named
Orbeez-SLAM, which successfully collaborates with implicit neural
representation (NeRF) and visual odometry to achieve our goals. Moreover,
Orbeez-SLAM can work with the monocular camera since it only needs RGB inputs,
making it widely applicable to the real world. We validate its effectiveness on
various challenging benchmarks. Results show that our SLAM is up to 800x faster
than the strong baseline with superior rendering outcomes.
- Abstract(参考訳): 視覚信号を通じて複雑なタスクを実行し、人間と協調する空間AIが期待されている。
これを実現するには、事前トレーニングせずに新しいシーンに容易に適応し、下流タスクの密集したマップをリアルタイムで生成できるビジュアルなスラムが必要です。
従来の学習ベースおよび非学習ベースの視覚SLAMは、そのコンポーネント固有の制限のために、すべてのニーズを満たすものではなかった。
本研究では,orbeez-slamという視覚スラムを開発し,暗黙的神経表現(nerf)と視覚オドメトリ(visual odometry)と協調して目標を達成する。
さらに、Orbeez-SLAMは、RGB入力のみを必要とするため、モノクラーカメラで操作できるため、現実世界に広く適用できる。
様々な挑戦的なベンチマークでその有効性を検証する。
その結果、SLAMは強いベースラインよりも800倍高速で、優れたレンダリング結果が得られることがわかった。
関連論文リスト
- GlORIE-SLAM: Globally Optimized RGB-only Implicit Encoding Point Cloud SLAM [53.6402869027093]
フレキシブルなニューラルポイントクラウド表現シーンを用いたRGBのみの高密度SLAMシステムを提案する。
また,単分子深度とともに暗黙のポーズと深さを最適化する新しいDSPO層を導入する。
論文 参考訳(メタデータ) (2024-03-28T16:32:06Z) - DNS SLAM: Dense Neural Semantic-Informed SLAM [92.39687553022605]
DNS SLAMは、ハイブリッド表現を備えた新しいRGB-DセマンティックSLAMアプローチである。
本手法は画像に基づく特徴抽出と多視点幾何制約を統合し,外観の細部を改良する。
実験により, 合成データと実世界のデータ追跡の両面において, 最先端の性能が得られた。
論文 参考訳(メタデータ) (2023-11-30T21:34:44Z) - Co-SLAM: Joint Coordinate and Sparse Parametric Encodings for Neural
Real-Time SLAM [14.56883275492083]
Co-SLAMはハイブリッド表現に基づくRGB-D SLAMシステムである。
堅牢なカメラ追跡と高忠実な表面再構成をリアルタイムで行う。
論文 参考訳(メタデータ) (2023-04-27T17:46:45Z) - NICER-SLAM: Neural Implicit Scene Encoding for RGB SLAM [111.83168930989503]
NICER-SLAMは、カメラポーズと階層的なニューラル暗黙マップ表現を同時に最適化するRGB SLAMシステムである。
近年のRGB-D SLAMシステムと競合する高密度マッピング,追跡,新しいビュー合成において,高い性能を示す。
論文 参考訳(メタデータ) (2023-02-07T17:06:34Z) - RANA: Relightable Articulated Neural Avatars [83.60081895984634]
本稿では,ヒトの光合成のための光合成アバターであるRANAを提案する。
モノクラーRGBビデオの幾何学、テクスチャ、照明環境を両立させながら、人間をモデル化する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-12-06T18:59:31Z) - ESLAM: Efficient Dense SLAM System Based on Hybrid Representation of
Signed Distance Fields [2.0625936401496237]
ESLAMは、未知のカメラポーズでRGB-Dフレームを読み出し、シーン表現を漸進的に再構築する。
ESLAMは3次元再構成の精度を向上し、最先端の高密度視覚SLAM法のカメラローカライゼーションを50%以上向上する。
論文 参考訳(メタデータ) (2022-11-21T18:25:14Z) - iDF-SLAM: End-to-End RGB-D SLAM with Neural Implicit Mapping and Deep
Feature Tracking [4.522666263036414]
本稿では,機能ベースのディープニューラルトラッカをフロントエンドとして,NeRFスタイルのニューラルマッパーをバックエンドとして採用した新しいエンドツーエンドRGB-D SLAM,iDF-SLAMを提案する。
提案したiDF-SLAMは、カメラトラッキングにおけるシーン再構成と競合性能の観点から、最先端の結果を示す。
論文 参考訳(メタデータ) (2022-09-16T13:32:57Z) - RWT-SLAM: Robust Visual SLAM for Highly Weak-textured Environments [1.1024591739346294]
本稿では,この問題を解決するためにRWT-SLAMという新しいビジュアルSLAMシステムを提案する。
低テクスチャ環境下で高密度な点マッチングを生成できるLoFTRネットワークを改良し,特徴記述子を生成する。
結果のRWT-SLAMは、TUMやOpenLORISなど、さまざまな公開データセットでテストされる。
論文 参考訳(メタデータ) (2022-07-07T19:24:03Z) - NICE-SLAM: Neural Implicit Scalable Encoding for SLAM [112.6093688226293]
NICE-SLAMは階層的なシーン表現を導入することでマルチレベルローカル情報を組み込んだ高密度SLAMシステムである。
最近の暗黙的SLAMシステムと比較して、私たちのアプローチはよりスケーラブルで効率的で堅牢です。
論文 参考訳(メタデータ) (2021-12-22T18:45:44Z) - Differentiable SLAM-net: Learning Particle SLAM for Visual Navigation [15.677860200178959]
SLAM-netは、粒子フィルタに基づくSLAMアルゴリズムを微分可能なグラフに符号化する。
SLAMアルゴリズムを通じて、タスク指向ニューラルネットワークコンポーネントをバックプロパゲートすることで学習する。
雑音条件下で広く適応したORB-SLAMを著しく上回る。
論文 参考訳(メタデータ) (2021-05-17T03:54:34Z) - OV$^{2}$SLAM : A Fully Online and Versatile Visual SLAM for Real-Time
Applications [59.013743002557646]
OV$2$SLAMは、モノクロカメラとステレオカメラの両方のセットアップ、さまざまなマップスケール、フレームレートを、数ヘルツから数百まで、完全にオンラインのアルゴリズムである。
コミュニティの利益のために、ソースコードを urlhttps://github.com/ov2slam/ov2slam でリリースします。
論文 参考訳(メタデータ) (2021-02-08T08:39:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。