論文の概要: DymSLAM:4D Dynamic Scene Reconstruction Based on Geometrical Motion
Segmentation
- arxiv url: http://arxiv.org/abs/2003.04569v1
- Date: Tue, 10 Mar 2020 08:25:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 21:40:22.826534
- Title: DymSLAM:4D Dynamic Scene Reconstruction Based on Geometrical Motion
Segmentation
- Title(参考訳): DymSLAM:4次元幾何学的モーションセグメンテーションに基づく動的シーン再構成
- Authors: Chenjie Wang and Bin Luo and Yun Zhang and Qing Zhao and Lu Yin and
Wei Wang and Xin Su and Yajun Wang and Chengyuan Li
- Abstract要約: DymSLAM(ダイムSLAM)は、4D(3D + Time)ダイナミックシーンを剛体移動物体で再構成できる動的ステレオ視覚SLAMシステムである。
提案システムでは,動的物体の障害物回避などの高レベルなタスクにロボットを使用できる。
- 参考スコア(独自算出の注目度): 22.444657614883084
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most SLAM algorithms are based on the assumption that the scene is static.
However, in practice, most scenes are dynamic which usually contains moving
objects, these methods are not suitable. In this paper, we introduce DymSLAM, a
dynamic stereo visual SLAM system being capable of reconstructing a 4D (3D +
time) dynamic scene with rigid moving objects. The only input of DymSLAM is
stereo video, and its output includes a dense map of the static environment, 3D
model of the moving objects and the trajectories of the camera and the moving
objects. We at first detect and match the interesting points between successive
frames by using traditional SLAM methods. Then the interesting points belonging
to different motion models (including ego-motion and motion models of rigid
moving objects) are segmented by a multi-model fitting approach. Based on the
interesting points belonging to the ego-motion, we are able to estimate the
trajectory of the camera and reconstruct the static background. The interesting
points belonging to the motion models of rigid moving objects are then used to
estimate their relative motion models to the camera and reconstruct the 3D
models of the objects. We then transform the relative motion to the
trajectories of the moving objects in the global reference frame. Finally, we
then fuse the 3D models of the moving objects into the 3D map of the
environment by considering their motion trajectories to obtain a 4D (3D+time)
sequence. DymSLAM obtains information about the dynamic objects instead of
ignoring them and is suitable for unknown rigid objects. Hence, the proposed
system allows the robot to be employed for high-level tasks, such as obstacle
avoidance for dynamic objects. We conducted experiments in a real-world
environment where both the camera and the objects were moving in a wide range.
- Abstract(参考訳): ほとんどのSLAMアルゴリズムは、シーンが静的であるという仮定に基づいている。
しかし実際には、ほとんどのシーンは動的で、通常動く物体を含んでいるが、これらの手法は適していない。
本稿では、4D(3D + Time)動的シーンを剛体移動物体で再構成できる動的ステレオ視覚SLAMシステムDymSLAMを紹介する。
DymSLAMの唯一の入力はステレオビデオであり、その出力には、静止環境の密度の高いマップ、移動物体の3Dモデル、カメラと移動物体の軌跡が含まれる。
まず、従来のSLAM手法を用いて、連続するフレーム間の興味深い点を検出し、マッチングする。
次に、異なる運動モデルに属する興味深いポイント(剛体移動物体のエゴ運動や運動モデルを含む)をマルチモデルフィッティングアプローチで分割する。
エゴモーションに属する興味深い点に基づいて、カメラの軌跡を推定し、静的な背景を再構築することができる。
剛体移動物体の運動モデルに属する興味深い点は、相対運動モデルとカメラとの相対運動モデルの推定と、物体の3次元モデル再構築に使用される。
次に、グローバル参照フレーム内の移動物体の軌道に対する相対運動を変換する。
最後に,移動物体の3次元モデルを環境の3次元マップに融合させ,その運動軌跡を考慮し,4D(3D+time)配列を得る。
dymslamは、それを無視する代わりに動的オブジェクトに関する情報を取得し、未知の剛体オブジェクトに適している。
そこで,提案システムでは,ロボットを動的物体に対する障害物回避などのハイレベルなタスクに活用することができる。
我々は,カメラと物体が広範囲に移動している実環境において実験を行った。
関連論文リスト
- EMD: Explicit Motion Modeling for High-Quality Street Gaussian Splatting [22.590036750925627]
ストリートシーンの光現実的再構築は、自動運転における実世界のシミュレータの開発に不可欠である。
3D/4Dガウス散乱(GS)に基づく最近の手法は有望な結果を示したが、動的物体の予測不可能な動きのため、複雑な街路シーンではまだ課題に直面している。
本稿では,ガウス人に学習可能な動作埋め込みを導入することで,動的物体の運動をモデル化するEMD(Explicit Motion Decomposition)を提案する。
論文 参考訳(メタデータ) (2024-11-23T15:10:04Z) - V3D-SLAM: Robust RGB-D SLAM in Dynamic Environments with 3D Semantic Geometry Voting [1.3493547928462395]
動体とカメラのポーズの相関関係から,高度にダイナミックな環境下での同時位置決めとマッピング(SLAM)は困難である。
2つの軽量再評価段階を経て移動物体を除去するロバストな手法 V3D-SLAM を提案する。
TUM RGB-Dベンチマーク実験により,直近のSLAM法よりも高い性能を示した。
論文 参考訳(メタデータ) (2024-10-15T21:08:08Z) - EgoGaussian: Dynamic Scene Understanding from Egocentric Video with 3D Gaussian Splatting [95.44545809256473]
エゴガウスアン(EgoGaussian)は、3Dシーンを同時に再構築し、RGBエゴセントリックな入力のみから3Dオブジェクトの動きを動的に追跡する手法である。
動的オブジェクトと背景再構築の品質の両面で,最先端技術と比較して大きな改善が見られた。
論文 参考訳(メタデータ) (2024-06-28T10:39:36Z) - DO3D: Self-supervised Learning of Decomposed Object-aware 3D Motion and
Depth from Monocular Videos [76.01906393673897]
本研究では,モノクラービデオから3次元運動と深度を協調的に学習する自己教師手法を提案する。
本システムでは,深度を推定する深度推定モジュールと,エゴモーションと3次元物体の動きを推定する新しい分解対象3次元運動推定モジュールを備える。
我々のモデルは評価されたすべての設定において優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-03-09T12:22:46Z) - Delving into Motion-Aware Matching for Monocular 3D Object Tracking [81.68608983602581]
異なる時間軸に沿った物体の運動キューが3次元多物体追跡において重要であることが判明した。
3つの動き認識コンポーネントからなるフレームワークであるMoMA-M3Tを提案する。
我々はnuScenesとKITTIデータセットに関する広範な実験を行い、MoMA-M3Tが最先端の手法と競合する性能を発揮することを実証した。
論文 参考訳(メタデータ) (2023-08-22T17:53:58Z) - Class-agnostic Reconstruction of Dynamic Objects from Videos [127.41336060616214]
動的オブジェクトをRGBDや校正ビデオから再構成するためのクラスに依存しないフレームワークであるREDOを紹介する。
我々は2つの新しいモジュールを開発し、まず、時間的視覚的手がかりを集約したピクセル整合性を持つ正準4次元暗黙関数を導入する。
第2に、時間的伝播と集約をサポートするためにオブジェクトのダイナミクスをキャプチャする4D変換モジュールを開発する。
論文 参考訳(メタデータ) (2021-12-03T18:57:47Z) - NeuralDiff: Segmenting 3D objects that move in egocentric videos [92.95176458079047]
観測された3次元シーンを静的な背景と動的前景に分解する問題について検討する。
このタスクは、古典的な背景の減算問題を連想させるが、静的でダイナミックなシーンの全ての部分が大きな動きを生じさせるため、非常に難しい。
特に、自我中心のビデオについて検討し、動的コンポーネントを観察・移動するオブジェクトとアクターにさらに分離する。
論文 参考訳(メタデータ) (2021-10-19T12:51:35Z) - Attentive and Contrastive Learning for Joint Depth and Motion Field
Estimation [76.58256020932312]
単眼視システムからシーンの3次元構造とともにカメラの動きを推定することは複雑な作業である。
モノクロ映像からの3次元物体運動場推定のための自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T16:45:01Z) - AirDOS: Dynamic SLAM benefits from Articulated Objects [9.045690662672659]
オブジェクト認識SLAM(DOS)は、動的環境におけるロバストな動き推定を可能にするためにオブジェクトレベル情報を利用する。
AirDOSは、動的な調音オブジェクトを組み込むことで、カメラのポーズ推定を改善することができることを示す最初の動的オブジェクト認識SLAMシステムである。
論文 参考訳(メタデータ) (2021-09-21T01:23:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。