論文の概要: AirDOS: Dynamic SLAM benefits from Articulated Objects
- arxiv url: http://arxiv.org/abs/2109.09903v1
- Date: Tue, 21 Sep 2021 01:23:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-22 14:13:48.073507
- Title: AirDOS: Dynamic SLAM benefits from Articulated Objects
- Title(参考訳): AirDOS:Articulated Objectsによる動的SLAMのメリット
- Authors: Yuheng Qiu, Chen Wang, Wenshan Wang, Mina Henein, Sebastian Scherer
- Abstract要約: オブジェクト認識SLAM(DOS)は、動的環境におけるロバストな動き推定を可能にするためにオブジェクトレベル情報を利用する。
AirDOSは、動的な調音オブジェクトを組み込むことで、カメラのポーズ推定を改善することができることを示す最初の動的オブジェクト認識SLAMシステムである。
- 参考スコア(独自算出の注目度): 9.045690662672659
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dynamic Object-aware SLAM (DOS) exploits object-level information to enable
robust motion estimation in dynamic environments. It has attracted increasing
attention with the recent success of learning-based models. Existing methods
mainly focus on identifying and excluding dynamic objects from the
optimization. In this paper, we show that feature-based visual SLAM systems can
also benefit from the presence of dynamic articulated objects by taking
advantage of two observations: (1) The 3D structure of an articulated object
remains consistent over time; (2) The points on the same object follow the same
motion. In particular, we present AirDOS, a dynamic object-aware system that
introduces rigidity and motion constraints to model articulated objects. By
jointly optimizing the camera pose, object motion, and the object 3D structure,
we can rectify the camera pose estimation, preventing tracking loss, and
generate 4D spatio-temporal maps for both dynamic objects and static scenes.
Experiments show that our algorithm improves the robustness of visual SLAM
algorithms in challenging crowded urban environments. To the best of our
knowledge, AirDOS is the first dynamic object-aware SLAM system demonstrating
that camera pose estimation can be improved by incorporating dynamic
articulated objects.
- Abstract(参考訳): dynamic object-aware slam (dos) はオブジェクトレベルの情報を利用して動的環境におけるロバストな動き推定を可能にする。
近年の学習モデルの成功に注目が集まっている。
既存の手法は主に最適化から動的オブジェクトを識別および排除することに焦点を当てている。
本稿では,(1)関節物体の3次元構造は時間とともに一貫性が保たれ,(2)同じ物体上の点は同じ動きに従わなければならない,という2つの観察を生かして,特徴ベースの視覚スラムシステムも動的関節物体の存在の利点を享受できることを示す。
特に,物体のモデル化に剛性と動作制約を導入する動的物体認識システムであるairdosを提案する。
カメラポーズ,オブジェクト動作,オブジェクト3D構造を協調的に最適化することにより,カメラポーズ推定を補正し,トラッキングロスを防止し,動的オブジェクトと静的シーンの両方に対して4次元時空間マップを生成する。
実験により, 混み合った都市環境における視覚的SLAMアルゴリズムのロバスト性の向上が示された。
われわれの知る限りでは、airdosは初めて動的物体認識スラムシステムであり、動的関節オブジェクトを組み込むことでカメラのポーズ推定を改善することを実証している。
関連論文リスト
- V3D-SLAM: Robust RGB-D SLAM in Dynamic Environments with 3D Semantic Geometry Voting [1.3493547928462395]
動体とカメラのポーズの相関関係から,高度にダイナミックな環境下での同時位置決めとマッピング(SLAM)は困難である。
2つの軽量再評価段階を経て移動物体を除去するロバストな手法 V3D-SLAM を提案する。
TUM RGB-Dベンチマーク実験により,直近のSLAM法よりも高い性能を示した。
論文 参考訳(メタデータ) (2024-10-15T21:08:08Z) - Dynamic Scene Understanding through Object-Centric Voxelization and Neural Rendering [57.895846642868904]
オブジェクト中心学習が可能な動的シーンのための3次元生成モデルDynaVol-Sを提案する。
ボキセル化は、個々の空間的位置において、物体ごとの占有確率を推定する。
提案手法は2次元セマンティックな特徴を統合して3次元セマンティック・グリッドを作成し,複数の不整合ボクセル・グリッドを通してシーンを表現する。
論文 参考訳(メタデータ) (2024-07-30T15:33:58Z) - EgoGaussian: Dynamic Scene Understanding from Egocentric Video with 3D Gaussian Splatting [95.44545809256473]
エゴガウスアン(EgoGaussian)は、3Dシーンを同時に再構築し、RGBエゴセントリックな入力のみから3Dオブジェクトの動きを動的に追跡する手法である。
動的オブジェクトと背景再構築の品質の両面で,最先端技術と比較して大きな改善が見られた。
論文 参考訳(メタデータ) (2024-06-28T10:39:36Z) - DO3D: Self-supervised Learning of Decomposed Object-aware 3D Motion and
Depth from Monocular Videos [76.01906393673897]
本研究では,モノクラービデオから3次元運動と深度を協調的に学習する自己教師手法を提案する。
本システムでは,深度を推定する深度推定モジュールと,エゴモーションと3次元物体の動きを推定する新しい分解対象3次元運動推定モジュールを備える。
我々のモデルは評価されたすべての設定において優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-03-09T12:22:46Z) - UniQuadric: A SLAM Backend for Unknown Rigid Object 3D Tracking and
Light-Weight Modeling [7.626461564400769]
本稿では,エゴモーショントラッキング,剛体オブジェクトモーショントラッキング,モデリングを統一するSLAMバックエンドを提案する。
本システムは,複雑な動的シーンにおける物体知覚の潜在的な応用を実証する。
論文 参考訳(メタデータ) (2023-09-29T07:50:09Z) - MOTSLAM: MOT-assisted monocular dynamic SLAM using single-view depth
estimation [5.33931801679129]
MOTSLAMは動的ビジュアルSLAMシステムであり、動的オブジェクトのポーズとバウンディングボックスの両方を追跡する単分子構成を持つ。
KITTIデータセットを用いた実験により,カメラのエゴモーションとモノラルな動的SLAMでの物体追跡の両方において,我々のシステムが最高の性能を示した。
論文 参考訳(メタデータ) (2022-10-05T06:07:10Z) - Visual-Inertial Multi-Instance Dynamic SLAM with Object-level
Relocalisation [14.302118093865849]
密結合型ビジュアル・慣性オブジェクトレベルのマルチインスタンス動的SLAMシステムを提案する。
カメラのポーズ、速度、IMUバイアスを強く最適化し、環境の高密度な3D再構成オブジェクトレベルマップを構築することができる。
論文 参考訳(メタデータ) (2022-08-08T17:13:24Z) - Class-agnostic Reconstruction of Dynamic Objects from Videos [127.41336060616214]
動的オブジェクトをRGBDや校正ビデオから再構成するためのクラスに依存しないフレームワークであるREDOを紹介する。
我々は2つの新しいモジュールを開発し、まず、時間的視覚的手がかりを集約したピクセル整合性を持つ正準4次元暗黙関数を導入する。
第2に、時間的伝播と集約をサポートするためにオブジェクトのダイナミクスをキャプチャする4D変換モジュールを開発する。
論文 参考訳(メタデータ) (2021-12-03T18:57:47Z) - Attentive and Contrastive Learning for Joint Depth and Motion Field
Estimation [76.58256020932312]
単眼視システムからシーンの3次元構造とともにカメラの動きを推定することは複雑な作業である。
モノクロ映像からの3次元物体運動場推定のための自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T16:45:01Z) - DOT: Dynamic Object Tracking for Visual SLAM [83.69544718120167]
DOTはインスタンスセグメンテーションとマルチビュー幾何を組み合わせて、動的オブジェクトのマスクを生成する。
実際にどのオブジェクトが動いているかを判断するために、DOTは、潜在的にダイナミックなオブジェクトの最初のインスタンスを抽出し、次に推定されたカメラモーションで、測光再投射誤差を最小限にして、そのようなオブジェクトを追跡する。
提案手法はORB-SLAM 2の精度とロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-09-30T18:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。