論文の概要: RWT-SLAM: Robust Visual SLAM for Highly Weak-textured Environments
- arxiv url: http://arxiv.org/abs/2207.03539v1
- Date: Thu, 7 Jul 2022 19:24:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-11 13:40:25.596914
- Title: RWT-SLAM: Robust Visual SLAM for Highly Weak-textured Environments
- Title(参考訳): RWT-SLAM: 高弱環境のためのロバストなビジュアルSLAM
- Authors: Qihao Peng, Zhiyu Xiang, YuanGang Fan, Tengqi Zhao, Xijun Zhao
- Abstract要約: 本稿では,この問題を解決するためにRWT-SLAMという新しいビジュアルSLAMシステムを提案する。
低テクスチャ環境下で高密度な点マッチングを生成できるLoFTRネットワークを改良し,特徴記述子を生成する。
結果のRWT-SLAMは、TUMやOpenLORISなど、さまざまな公開データセットでテストされる。
- 参考スコア(独自算出の注目度): 1.1024591739346294
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a fundamental task for intelligent robots, visual SLAM has made great
progress over the past decades. However, robust SLAM under highly weak-textured
environments still remains very challenging. In this paper, we propose a novel
visual SLAM system named RWT-SLAM to tackle this problem. We modify LoFTR
network which is able to produce dense point matching under low-textured scenes
to generate feature descriptors. To integrate the new features into the popular
ORB-SLAM framework, we develop feature masks to filter out the unreliable
features and employ KNN strategy to strengthen the matching robustness. We also
retrained visual vocabulary upon new descriptors for efficient loop closing.
The resulting RWT-SLAM is tested in various public datasets such as TUM and
OpenLORIS, as well as our own data. The results shows very promising
performance under highly weak-textured environments.
- Abstract(参考訳): インテリジェントロボットの基本的なタスクとして、ビジュアルスラムは過去数十年で大きな進歩を遂げてきた。
しかし、高度に弱い環境下での堅牢なSLAMは依然として非常に困難である。
本稿では,この問題を解決するためにRWT-SLAMという新しいビジュアルSLAMシステムを提案する。
低テクスチャ環境下で高密度な点マッチングを生成できるLoFTRネットワークを改良し,特徴記述子を生成する。
新機能を人気のあるorb-slamフレームワークに統合するために,信頼性の低い機能をフィルタする機能マスクを開発し,nn戦略を用いて適合性を強化する。
また,効率的なループ閉鎖のための新しいディスクリプタ上での視覚語彙の再訓練を行った。
結果のRWT-SLAMは、TUMやOpenLORISといったさまざまな公開データセットや、当社のデータでテストされます。
その結果, 弱環境下での有望な性能が得られた。
関連論文リスト
- GlORIE-SLAM: Globally Optimized RGB-only Implicit Encoding Point Cloud SLAM [53.6402869027093]
フレキシブルなニューラルポイントクラウド表現シーンを用いたRGBのみの高密度SLAMシステムを提案する。
また,単分子深度とともに暗黙のポーズと深さを最適化する新しいDSPO層を導入する。
論文 参考訳(メタデータ) (2024-03-28T16:32:06Z) - DNS SLAM: Dense Neural Semantic-Informed SLAM [92.39687553022605]
DNS SLAMは、ハイブリッド表現を備えた新しいRGB-DセマンティックSLAMアプローチである。
本手法は画像に基づく特徴抽出と多視点幾何制約を統合し,外観の細部を改良する。
実験により, 合成データと実世界のデータ追跡の両面において, 最先端の性能が得られた。
論文 参考訳(メタデータ) (2023-11-30T21:34:44Z) - NICE-SLAM with Adaptive Feature Grids [1.5962515374223873]
NICE-SLAMは、ニューラルな暗黙表現と階層的なグリッドベースのシーン表現を組み合わせた高密度視覚SLAMシステムである。
我々は、Voxel HashingのアイデアをNICE-SLAMフレームワークに組み込んだスパースSLAMシステムであるNICE-SLAMを提案する。
論文 参考訳(メタデータ) (2023-06-04T16:11:45Z) - Co-SLAM: Joint Coordinate and Sparse Parametric Encodings for Neural
Real-Time SLAM [14.56883275492083]
Co-SLAMはハイブリッド表現に基づくRGB-D SLAMシステムである。
堅牢なカメラ追跡と高忠実な表面再構成をリアルタイムで行う。
論文 参考訳(メタデータ) (2023-04-27T17:46:45Z) - NICER-SLAM: Neural Implicit Scene Encoding for RGB SLAM [111.83168930989503]
NICER-SLAMは、カメラポーズと階層的なニューラル暗黙マップ表現を同時に最適化するRGB SLAMシステムである。
近年のRGB-D SLAMシステムと競合する高密度マッピング,追跡,新しいビュー合成において,高い性能を示す。
論文 参考訳(メタデータ) (2023-02-07T17:06:34Z) - Using Detection, Tracking and Prediction in Visual SLAM to Achieve
Real-time Semantic Mapping of Dynamic Scenarios [70.70421502784598]
RDS-SLAMは、一般的に使用されているIntel Core i7 CPUのみを使用して、動的シナリオのためのオブジェクトレベルでのセマンティックマップをリアルタイムで構築することができる。
我々は, TUM RGB-DデータセットにおけるRDS-SLAMを評価し, 動的シナリオにおいて, RDS-SLAMはフレームあたり30.3msで動作可能であることを示した。
論文 参考訳(メタデータ) (2022-10-10T11:03:32Z) - Orbeez-SLAM: A Real-time Monocular Visual SLAM with ORB Features and
NeRF-realized Mapping [18.083667773491083]
我々は,事前学習をせずに新しいシーンに適応するビジュアルSLAMを開発し,下流タスクのための高密度マップをリアルタイムに生成する。
Orbeez-SLAMは暗黙の神経表現(NeRF)と視覚計測と協調して目標を達成する。
その結果、SLAMは強いベースラインよりも800倍高速で、より優れたレンダリング結果が得られることがわかった。
論文 参考訳(メタデータ) (2022-09-27T09:37:57Z) - NICE-SLAM: Neural Implicit Scalable Encoding for SLAM [112.6093688226293]
NICE-SLAMは階層的なシーン表現を導入することでマルチレベルローカル情報を組み込んだ高密度SLAMシステムである。
最近の暗黙的SLAMシステムと比較して、私たちのアプローチはよりスケーラブルで効率的で堅牢です。
論文 参考訳(メタデータ) (2021-12-22T18:45:44Z) - Learning to Segment Dynamic Objects using SLAM Outliers [5.4310785842119795]
本稿では,SLAMアウトレイラを用いて動的オブジェクトのセグメントを自動的に学習する手法を提案する。
トレーニングには動的オブジェクトごとに1つのモノクラーシーケンスしか必要とせず、SLAMアウトリーチを使用して動的オブジェクトをローカライズし、マスクを作成し、これらのマスクを使用してセマンティックセグメンテーションネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-11-12T08:36:54Z) - DXSLAM: A Robust and Efficient Visual SLAM System with Deep Features [5.319556638040589]
本稿では、深層畳み込みニューラルネットワーク(CNN)による特徴抽出を、現代のSLAMフレームワークにシームレスに組み込むことができることを示す。
提案システムでは,最新のCNNを用いて各画像フレーム内のキーポイントを検出し,キーポイント記述子だけでなく,全体像のグローバル記述子も提供する。
論文 参考訳(メタデータ) (2020-08-12T16:14:46Z) - AdaLAM: Revisiting Handcrafted Outlier Detection [106.38441616109716]
ローカルな特徴マッチングは多くのコンピュータビジョンパイプラインの重要なコンポーネントである。
本稿では,AdaLAMに繋がる新しいアイデアを統合するとともに,有効外乱検出のための階層パイプラインを提案する。
AdaLAMは、現代の並列ハードウェアを効果的に活用するために設計されており、非常に高速で、しかも非常に正確で、外れやすいフィルタとなっている。
論文 参考訳(メタデータ) (2020-06-07T20:16:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。