論文の概要: FlowFusion: Dynamic Dense RGB-D SLAM Based on Optical Flow
- arxiv url: http://arxiv.org/abs/2003.05102v1
- Date: Wed, 11 Mar 2020 04:00:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 15:36:26.633211
- Title: FlowFusion: Dynamic Dense RGB-D SLAM Based on Optical Flow
- Title(参考訳): フローフュージョン:光学的流れに基づく動的高密度RGB-DSLAM
- Authors: Tianwei Zhang, Huayan Zhang, Yang Li, Yoshihiko Nakamura and Lei Zhang
- Abstract要約: ダイナミック/静的セグメンテーションとカメラのエゴモーション推定を同時に実現する新しいRGB-D SLAMソリューションを提案する。
我々の新しい特徴は、RGB-D点雲のダイナミックセマンティクスを強調するために光学フロー残基を使うことである。
- 参考スコア(独自算出の注目度): 17.040818114071833
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Dynamic environments are challenging for visual SLAM since the moving objects
occlude the static environment features and lead to wrong camera motion
estimation. In this paper, we present a novel dense RGB-D SLAM solution that
simultaneously accomplishes the dynamic/static segmentation and camera
ego-motion estimation as well as the static background reconstructions. Our
novelty is using optical flow residuals to highlight the dynamic semantics in
the RGB-D point clouds and provide more accurate and efficient dynamic/static
segmentation for camera tracking and background reconstruction. The dense
reconstruction results on public datasets and real dynamic scenes indicate that
the proposed approach achieved accurate and efficient performances in both
dynamic and static environments compared to state-of-the-art approaches.
- Abstract(参考訳): 動いた物体が静的な環境特徴を阻害し、間違ったカメラモーション推定につながるため、動的環境は視覚的SLAMでは困難である。
本稿では,動的・静的なセグメンテーションとカメラのエゴモーション推定と静的な背景再構成を同時に行う,新しいRGB-D SLAMソリューションを提案する。
我々は,rgb-d 点群における動的意味論の強調に光学的流れ残差を用い,より高精度で効率的な動的/静的セグメンテーションをカメラ追跡と背景復元に提供している。
パブリックデータセットと実際の動的シーンの高密度な再構成結果から,提案手法は動的および静的な環境において,最先端のアプローチと比較して正確かつ効率的な性能を達成したことが示唆された。
関連論文リスト
- DEMOS: Dynamic Environment Motion Synthesis in 3D Scenes via Local
Spherical-BEV Perception [54.02566476357383]
本研究では,動的環境運動合成フレームワーク(DEMOS)を提案する。
次に、最終動作合成のために潜在動作を動的に更新する。
その結果,本手法は従来の手法よりも優れ,動的環境の処理性能も優れていた。
論文 参考訳(メタデータ) (2024-03-04T05:38:16Z) - DDN-SLAM: Real-time Dense Dynamic Neural Implicit SLAM [5.267859554944985]
DDN-SLAMは,意味的特徴を統合した最初のリアルタイム高密度ニューラルネットワーク暗黙的SLAMシステムである。
既存の暗黙的SLAMシステムと比較して、動的データセットの追跡結果は平均軌道誤差(ATE)の精度が平均90%向上していることを示している。
論文 参考訳(メタデータ) (2024-01-03T05:42:17Z) - NID-SLAM: Neural Implicit Representation-based RGB-D SLAM in dynamic
environments [10.413523346264055]
動的環境におけるニューラルSLAMの性能を大幅に向上させるNID-SLAMを提案する。
本稿では, セマンティックマスクにおける不正確な領域, 特に辺縁領域における不正確な領域を強化するための新しいアプローチを提案する。
また,ダイナミックシーンの選択戦略を導入し,大規模オブジェクトに対するカメラトラッキングの堅牢性を高める。
論文 参考訳(メタデータ) (2024-01-02T12:35:03Z) - EmerNeRF: Emergent Spatial-Temporal Scene Decomposition via
Self-Supervision [85.17951804790515]
EmerNeRFは動的駆動シーンの時空間表現を学習するためのシンプルだが強力なアプローチである。
シーンの幾何学、外観、動き、セマンティクスを自己ブートストラップで同時にキャプチャする。
本手法はセンサシミュレーションにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-11-03T17:59:55Z) - DynaMoN: Motion-Aware Fast And Robust Camera Localization for Dynamic
NeRF [74.33528897005999]
本研究では,動的なシーンコンテンツを扱うために,モーションマスキングと同時位置決めマッピング(SLAM)を併用したDynaMoNを提案する。
我々の堅牢なSLAMベースのトラッキングモジュールは、動的NeRFのトレーニングプロセスを著しく加速し、同時に合成されたビューの品質を向上させる。
論文 参考訳(メタデータ) (2023-09-16T08:46:59Z) - Alignment-free HDR Deghosting with Semantics Consistent Transformer [76.91669741684173]
高ダイナミックレンジイメージングは、複数の低ダイナミックレンジ入力から情報を取得し、リアルな出力を生成することを目的としている。
既存の手法では、前景やカメラの動きによって引き起こされる入力フレーム間の空間的ずれに焦点を当てることが多い。
本研究では,SCTNet(Semantics Consistent Transformer)を用いたアライメントフリーネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T15:03:23Z) - Real-time SLAM Pipeline in Dynamics Environment [0.0]
我々は,RGB-D SLAM と YOLO リアルタイムオブジェクト検出を用いて動的シーンの分割と削除を行い,静的シーン3D を構築するソリューションを提案する。
我々は、セマンティクス、幾何学、物理学を共同で検討できるデータセットを収集し、全ての動的オブジェクトをフィルタリングしながら静的なシーンを再構築することを可能にする。
論文 参考訳(メタデータ) (2023-03-04T00:08:52Z) - Robust Dynamic Radiance Fields [79.43526586134163]
動的放射場再構成法は動的シーンの時間変化構造と外観をモデル化することを目的としている。
しかし、既存の手法では、正確なカメラポーズをStructure from Motion (SfM)アルゴリズムによって確実に推定できると仮定している。
カメラパラメータとともに静的および動的放射場を共同で推定することにより、このロバスト性問題に対処する。
論文 参考訳(メタデータ) (2023-01-05T18:59:51Z) - DeFlowSLAM: Self-Supervised Scene Motion Decomposition for Dynamic Dense
SLAM [41.76744945068124]
DeFlowSLAMと呼ばれるダイナミックSLAMは、画像中の静的画素と動的ピクセルの両方を利用して、カメラのポーズを解決する。
DeFlowSLAMは静的シーンと動的シーンの両方を一般化し、静的シーンとよりダイナミックなシーンでは最先端のDROID-SLAMに匹敵するパフォーマンスを示す。
論文 参考訳(メタデータ) (2022-07-18T17:47:39Z) - Dynamic Dense RGB-D SLAM using Learning-based Visual Odometry [0.8029049649310211]
本稿では,学習に基づくビジュアルオドメトリーであるTartanVOに基づく高密度な動的RGB-D SLAMパイプラインを提案する。
我々のパイプラインは、光学フロー出力を利用して動的/静的セグメンテーションを解決し、静的点のみをマップに融合する。
論文 参考訳(メタデータ) (2022-05-12T07:11:41Z) - DOT: Dynamic Object Tracking for Visual SLAM [83.69544718120167]
DOTはインスタンスセグメンテーションとマルチビュー幾何を組み合わせて、動的オブジェクトのマスクを生成する。
実際にどのオブジェクトが動いているかを判断するために、DOTは、潜在的にダイナミックなオブジェクトの最初のインスタンスを抽出し、次に推定されたカメラモーションで、測光再投射誤差を最小限にして、そのようなオブジェクトを追跡する。
提案手法はORB-SLAM 2の精度とロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-09-30T18:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。