論文の概要: Differentiable SLAM-net: Learning Particle SLAM for Visual Navigation
- arxiv url: http://arxiv.org/abs/2105.07593v2
- Date: Wed, 19 May 2021 14:12:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-20 13:29:38.433184
- Title: Differentiable SLAM-net: Learning Particle SLAM for Visual Navigation
- Title(参考訳): 微分可能SLAM-net:ビジュアルナビゲーションのための粒子SLAMの学習
- Authors: Peter Karkus, Shaojun Cai, David Hsu
- Abstract要約: SLAM-netは、粒子フィルタに基づくSLAMアルゴリズムを微分可能なグラフに符号化する。
SLAMアルゴリズムを通じて、タスク指向ニューラルネットワークコンポーネントをバックプロパゲートすることで学習する。
雑音条件下で広く適応したORB-SLAMを著しく上回る。
- 参考スコア(独自算出の注目度): 15.677860200178959
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Simultaneous localization and mapping (SLAM) remains challenging for a number
of downstream applications, such as visual robot navigation, because of rapid
turns, featureless walls, and poor camera quality. We introduce the
Differentiable SLAM Network (SLAM-net) along with a navigation architecture to
enable planar robot navigation in previously unseen indoor environments.
SLAM-net encodes a particle filter based SLAM algorithm in a differentiable
computation graph, and learns task-oriented neural network components by
backpropagating through the SLAM algorithm. Because it can optimize all model
components jointly for the end-objective, SLAM-net learns to be robust in
challenging conditions. We run experiments in the Habitat platform with
different real-world RGB and RGB-D datasets. SLAM-net significantly outperforms
the widely adapted ORB-SLAM in noisy conditions. Our navigation architecture
with SLAM-net improves the state-of-the-art for the Habitat Challenge 2020
PointNav task by a large margin (37% to 64% success). Project website:
http://sites.google.com/view/slamnet
- Abstract(参考訳): ローカライゼーションとマッピング(SLAM)は、高速な回転、特徴のない壁、カメラ品質の低下など、視覚ロボットナビゲーションなど、多くの下流アプリケーションにとって依然として困難である。
本稿では,これまで見つからなかった屋内環境における平面ロボットナビゲーションを実現するために,SLAMネットワークとナビゲーションアーキテクチャを導入する。
SLAM-netは、パーティクルフィルタに基づくSLAMアルゴリズムを微分可能な計算グラフにエンコードし、SLAMアルゴリズムを通じてバックプロパゲートすることでタスク指向のニューラルネットワークコンポーネントを学習する。
最終目的のためにすべてのモデルコンポーネントを一緒に最適化できるため、slam-netは困難な条件下で堅牢であることを学びます。
私たちは、実世界のRGBとRGB-Dデータセットの異なるHabitatプラットフォームで実験を行います。
SLAM-netは雑音条件下で広く適応したORB-SLAMよりも著しく優れていた。
当社のslam-netによるナビゲーションアーキテクチャは,habitat challenge 2020 pointnavタスクの最先端を,大きなマージン(37%から64%の成功)で改善しています。
プロジェクトウェブサイト: http://sites.google.com/view/slamnet
関連論文リスト
- GlORIE-SLAM: Globally Optimized RGB-only Implicit Encoding Point Cloud SLAM [53.6402869027093]
フレキシブルなニューラルポイントクラウド表現シーンを用いたRGBのみの高密度SLAMシステムを提案する。
また,単分子深度とともに暗黙のポーズと深さを最適化する新しいDSPO層を導入する。
論文 参考訳(メタデータ) (2024-03-28T16:32:06Z) - Loopy-SLAM: Dense Neural SLAM with Loop Closures [53.11936461015725]
ポーズをグローバルに最適化するLoopy-SLAMと高密度3Dモデルを導入する。
我々は,データ駆動のポイントベースサブマップ生成手法を用いてフレーム・ツー・モデル追跡を行い,グローバルな位置認識を行うことで,オンラインのループクロージャをトリガーする。
合成Replicaおよび実世界のTUM-RGBDおよびScanNetデータセットの評価は、既存の高密度ニューラルネットワークRGBD SLAM法と比較して、追跡、マッピング、レンダリングの精度の競争力または優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-14T18:18:32Z) - UncLe-SLAM: Uncertainty Learning for Dense Neural SLAM [60.575435353047304]
我々は、高密度ニューラルネットワークの同時局所化とマッピング(SLAM)のための不確実性学習フレームワークを提案する。
本稿では,2次元入力データのみから自己教師付きで学習可能なセンサ不確実性推定のためのオンラインフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-19T16:26:25Z) - Co-SLAM: Joint Coordinate and Sparse Parametric Encodings for Neural
Real-Time SLAM [14.56883275492083]
Co-SLAMはハイブリッド表現に基づくRGB-D SLAMシステムである。
堅牢なカメラ追跡と高忠実な表面再構成をリアルタイムで行う。
論文 参考訳(メタデータ) (2023-04-27T17:46:45Z) - ESLAM: Efficient Dense SLAM System Based on Hybrid Representation of
Signed Distance Fields [2.0625936401496237]
ESLAMは、未知のカメラポーズでRGB-Dフレームを読み出し、シーン表現を漸進的に再構築する。
ESLAMは3次元再構成の精度を向上し、最先端の高密度視覚SLAM法のカメラローカライゼーションを50%以上向上する。
論文 参考訳(メタデータ) (2022-11-21T18:25:14Z) - Using Detection, Tracking and Prediction in Visual SLAM to Achieve
Real-time Semantic Mapping of Dynamic Scenarios [70.70421502784598]
RDS-SLAMは、一般的に使用されているIntel Core i7 CPUのみを使用して、動的シナリオのためのオブジェクトレベルでのセマンティックマップをリアルタイムで構築することができる。
我々は, TUM RGB-DデータセットにおけるRDS-SLAMを評価し, 動的シナリオにおいて, RDS-SLAMはフレームあたり30.3msで動作可能であることを示した。
論文 参考訳(メタデータ) (2022-10-10T11:03:32Z) - Orbeez-SLAM: A Real-time Monocular Visual SLAM with ORB Features and
NeRF-realized Mapping [18.083667773491083]
我々は,事前学習をせずに新しいシーンに適応するビジュアルSLAMを開発し,下流タスクのための高密度マップをリアルタイムに生成する。
Orbeez-SLAMは暗黙の神経表現(NeRF)と視覚計測と協調して目標を達成する。
その結果、SLAMは強いベースラインよりも800倍高速で、より優れたレンダリング結果が得られることがわかった。
論文 参考訳(メタデータ) (2022-09-27T09:37:57Z) - NICE-SLAM: Neural Implicit Scalable Encoding for SLAM [112.6093688226293]
NICE-SLAMは階層的なシーン表現を導入することでマルチレベルローカル情報を組み込んだ高密度SLAMシステムである。
最近の暗黙的SLAMシステムと比較して、私たちのアプローチはよりスケーラブルで効率的で堅牢です。
論文 参考訳(メタデータ) (2021-12-22T18:45:44Z) - OV$^{2}$SLAM : A Fully Online and Versatile Visual SLAM for Real-Time
Applications [59.013743002557646]
OV$2$SLAMは、モノクロカメラとステレオカメラの両方のセットアップ、さまざまなマップスケール、フレームレートを、数ヘルツから数百まで、完全にオンラインのアルゴリズムである。
コミュニティの利益のために、ソースコードを urlhttps://github.com/ov2slam/ov2slam でリリースします。
論文 参考訳(メタデータ) (2021-02-08T08:39:23Z) - A Hybrid Learner for Simultaneous Localization and Mapping [2.1041384320978267]
同時ローカライゼーション・マッピング(slam)は、移動プラットフォームの動的運動経路を予測するために用いられる。
本研究は,機能融合を超えたハイブリッド学習モデルを提案する。
それは異なった深いネットワークの上の層の突然変異によってSLAMのフロントエンドの特徴の抽出器の重量の増強を遂行します。
独立に訓練されたモデルからの軌道予測は、位置の詳細を洗練するために集約される。
論文 参考訳(メタデータ) (2021-01-04T18:41:09Z) - DXSLAM: A Robust and Efficient Visual SLAM System with Deep Features [5.319556638040589]
本稿では、深層畳み込みニューラルネットワーク(CNN)による特徴抽出を、現代のSLAMフレームワークにシームレスに組み込むことができることを示す。
提案システムでは,最新のCNNを用いて各画像フレーム内のキーポイントを検出し,キーポイント記述子だけでなく,全体像のグローバル記述子も提供する。
論文 参考訳(メタデータ) (2020-08-12T16:14:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。