論文の概要: D$^3$FlowSLAM: Self-Supervised Dynamic SLAM with Flow Motion Decomposition and DINO Guidance
- arxiv url: http://arxiv.org/abs/2207.08794v4
- Date: Wed, 21 Aug 2024 01:45:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-22 12:07:24.925431
- Title: D$^3$FlowSLAM: Self-Supervised Dynamic SLAM with Flow Motion Decomposition and DINO Guidance
- Title(参考訳): D$^3$FlowSLAM:フローモーション分解とDINO誘導による自己監督動的SLAM
- Authors: Xingyuan Yu, Weicai Ye, Xiyue Guo, Yuhang Ming, Jinyu Li, Hujun Bao, Zhaopeng Cui, Guofeng Zhang,
- Abstract要約: 本稿では,動的シーンにおいて動的コンポーネントを正確に識別しながら頑健に動作する自己教師型ディープSLAM法を提案する。
本稿では,この表現に基づく動的更新モジュールを提案し,動的シナリオに優れた高密度SLAMシステムの開発を行う。
- 参考スコア(独自算出の注目度): 61.14088096348959
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we introduce a self-supervised deep SLAM method that robustly operates in dynamic scenes while accurately identifying dynamic components. Our method leverages a dual-flow representation for static flow and dynamic flow, facilitating effective scene decomposition in dynamic environments. We propose a dynamic update module based on this representation and develop a dense SLAM system that excels in dynamic scenarios. In addition, we design a self-supervised training scheme using DINO as a prior, enabling label-free training. Our method achieves superior accuracy compared to other self-supervised methods. It also matches or even surpasses the performance of existing supervised methods in some cases. All code and data will be made publicly available upon acceptance.
- Abstract(参考訳): 本稿では,動的シーンにおいて動的コンポーネントを正確に識別しながら,動的シーンで頑健に動作する自己教師型ディープSLAM法を提案する。
本研究では,静的フローと動的フローの二重フロー表現を活用し,動的環境におけるシーンの効率的な分解を容易にする。
本稿では,この表現に基づく動的更新モジュールを提案し,動的シナリオに優れた高密度SLAMシステムの開発を行う。
さらに,DINOを先行学習として利用し,ラベルなし学習を可能にする自己教師型トレーニングスキームを設計する。
本手法は他の自己管理手法と比較して精度が高い。
また、場合によっては既存の教師付きメソッドのパフォーマンスと一致したり、超えたりもします。
すべてのコードとデータは、受け入れ次第公開されます。
関連論文リスト
- NGD-SLAM: Towards Real-Time SLAM for Dynamic Environments without GPU [4.970590187498935]
本稿では,マスク予測機構を導入して,CPU上でのリアルタイム性能を実現する動的環境のための新しい視覚SLAMシステムを提案する。
さらに、デュアルステージの光フロー追跡手法を導入し、光フローとORBのハイブリッドな使用法を採用した。
最先端の手法と比較して、ハードウェアアクセラレーションなしで1台のラップトップCPU上で56fpsのトラッキングフレーム速度を実現しつつ、動的環境における高いローカライズ精度を維持する。
論文 参考訳(メタデータ) (2024-05-12T23:00:53Z) - EmerNeRF: Emergent Spatial-Temporal Scene Decomposition via
Self-Supervision [85.17951804790515]
EmerNeRFは動的駆動シーンの時空間表現を学習するためのシンプルだが強力なアプローチである。
シーンの幾何学、外観、動き、セマンティクスを自己ブートストラップで同時にキャプチャする。
本手法はセンサシミュレーションにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-11-03T17:59:55Z) - Forward Flow for Novel View Synthesis of Dynamic Scenes [97.97012116793964]
本稿では,前向きワープを用いた動的シーンの新たなビュー合成のためのニューラルラジアンス場(NeRF)アプローチを提案する。
本手法は、新しいビューレンダリングとモーションモデリングの両方において、既存の手法よりも優れている。
論文 参考訳(メタデータ) (2023-09-29T16:51:06Z) - DynaMoN: Motion-Aware Fast and Robust Camera Localization for Dynamic Neural Radiance Fields [71.94156412354054]
我々はDynaMoNを提案する。DynaMoNは、カメラのポーズ推定と、高速で正確なノベルビュー合成のためのスタティックス中心のレイサンプリングのための動的コンテンツを扱う。
我々の新しい反復学習方式は、NeRFのトレーニングとポーズパラメータの更新を切り替えて、改良された再構成と軌道推定の品質を向上する。
論文 参考訳(メタデータ) (2023-09-16T08:46:59Z) - Alignment-free HDR Deghosting with Semantics Consistent Transformer [76.91669741684173]
高ダイナミックレンジイメージングは、複数の低ダイナミックレンジ入力から情報を取得し、リアルな出力を生成することを目的としている。
既存の手法では、前景やカメラの動きによって引き起こされる入力フレーム間の空間的ずれに焦点を当てることが多い。
本研究では,SCTNet(Semantics Consistent Transformer)を用いたアライメントフリーネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T15:03:23Z) - MOTSLAM: MOT-assisted monocular dynamic SLAM using single-view depth
estimation [5.33931801679129]
MOTSLAMは動的ビジュアルSLAMシステムであり、動的オブジェクトのポーズとバウンディングボックスの両方を追跡する単分子構成を持つ。
KITTIデータセットを用いた実験により,カメラのエゴモーションとモノラルな動的SLAMでの物体追跡の両方において,我々のシステムが最高の性能を示した。
論文 参考訳(メタデータ) (2022-10-05T06:07:10Z) - Dynamic Dense RGB-D SLAM using Learning-based Visual Odometry [0.8029049649310211]
本稿では,学習に基づくビジュアルオドメトリーであるTartanVOに基づく高密度な動的RGB-D SLAMパイプラインを提案する。
我々のパイプラインは、光学フロー出力を利用して動的/静的セグメンテーションを解決し、静的点のみをマップに融合する。
論文 参考訳(メタデータ) (2022-05-12T07:11:41Z) - DOT: Dynamic Object Tracking for Visual SLAM [83.69544718120167]
DOTはインスタンスセグメンテーションとマルチビュー幾何を組み合わせて、動的オブジェクトのマスクを生成する。
実際にどのオブジェクトが動いているかを判断するために、DOTは、潜在的にダイナミックなオブジェクトの最初のインスタンスを抽出し、次に推定されたカメラモーションで、測光再投射誤差を最小限にして、そのようなオブジェクトを追跡する。
提案手法はORB-SLAM 2の精度とロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-09-30T18:36:28Z) - FlowFusion: Dynamic Dense RGB-D SLAM Based on Optical Flow [17.040818114071833]
ダイナミック/静的セグメンテーションとカメラのエゴモーション推定を同時に実現する新しいRGB-D SLAMソリューションを提案する。
我々の新しい特徴は、RGB-D点雲のダイナミックセマンティクスを強調するために光学フロー残基を使うことである。
論文 参考訳(メタデータ) (2020-03-11T04:00:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。