論文の概要: AirDOS: Dynamic SLAM benefits from Articulated Objects
- arxiv url: http://arxiv.org/abs/2109.09903v1
- Date: Tue, 21 Sep 2021 01:23:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-22 14:13:48.073507
- Title: AirDOS: Dynamic SLAM benefits from Articulated Objects
- Title(参考訳): AirDOS:Articulated Objectsによる動的SLAMのメリット
- Authors: Yuheng Qiu, Chen Wang, Wenshan Wang, Mina Henein, Sebastian Scherer
- Abstract要約: オブジェクト認識SLAM(DOS)は、動的環境におけるロバストな動き推定を可能にするためにオブジェクトレベル情報を利用する。
AirDOSは、動的な調音オブジェクトを組み込むことで、カメラのポーズ推定を改善することができることを示す最初の動的オブジェクト認識SLAMシステムである。
- 参考スコア(独自算出の注目度): 9.045690662672659
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dynamic Object-aware SLAM (DOS) exploits object-level information to enable
robust motion estimation in dynamic environments. It has attracted increasing
attention with the recent success of learning-based models. Existing methods
mainly focus on identifying and excluding dynamic objects from the
optimization. In this paper, we show that feature-based visual SLAM systems can
also benefit from the presence of dynamic articulated objects by taking
advantage of two observations: (1) The 3D structure of an articulated object
remains consistent over time; (2) The points on the same object follow the same
motion. In particular, we present AirDOS, a dynamic object-aware system that
introduces rigidity and motion constraints to model articulated objects. By
jointly optimizing the camera pose, object motion, and the object 3D structure,
we can rectify the camera pose estimation, preventing tracking loss, and
generate 4D spatio-temporal maps for both dynamic objects and static scenes.
Experiments show that our algorithm improves the robustness of visual SLAM
algorithms in challenging crowded urban environments. To the best of our
knowledge, AirDOS is the first dynamic object-aware SLAM system demonstrating
that camera pose estimation can be improved by incorporating dynamic
articulated objects.
- Abstract(参考訳): dynamic object-aware slam (dos) はオブジェクトレベルの情報を利用して動的環境におけるロバストな動き推定を可能にする。
近年の学習モデルの成功に注目が集まっている。
既存の手法は主に最適化から動的オブジェクトを識別および排除することに焦点を当てている。
本稿では,(1)関節物体の3次元構造は時間とともに一貫性が保たれ,(2)同じ物体上の点は同じ動きに従わなければならない,という2つの観察を生かして,特徴ベースの視覚スラムシステムも動的関節物体の存在の利点を享受できることを示す。
特に,物体のモデル化に剛性と動作制約を導入する動的物体認識システムであるairdosを提案する。
カメラポーズ,オブジェクト動作,オブジェクト3D構造を協調的に最適化することにより,カメラポーズ推定を補正し,トラッキングロスを防止し,動的オブジェクトと静的シーンの両方に対して4次元時空間マップを生成する。
実験により, 混み合った都市環境における視覚的SLAMアルゴリズムのロバスト性の向上が示された。
われわれの知る限りでは、airdosは初めて動的物体認識スラムシステムであり、動的関節オブジェクトを組み込むことでカメラのポーズ推定を改善することを実証している。
関連論文リスト
- DO3D: Self-supervised Learning of Decomposed Object-aware 3D Motion and
Depth from Monocular Videos [76.01906393673897]
本研究では,モノクラービデオから3次元運動と深度を協調的に学習する自己教師手法を提案する。
本システムでは,深度を推定する深度推定モジュールと,エゴモーションと3次元物体の動きを推定する新しい分解対象3次元運動推定モジュールを備える。
我々のモデルは評価されたすべての設定において優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-03-09T12:22:46Z) - UniQuadric: A SLAM Backend for Unknown Rigid Object 3D Tracking and
Light-Weight Modeling [7.626461564400769]
本稿では,エゴモーショントラッキング,剛体オブジェクトモーショントラッキング,モデリングを統一するSLAMバックエンドを提案する。
本システムは,複雑な動的シーンにおける物体知覚の潜在的な応用を実証する。
論文 参考訳(メタデータ) (2023-09-29T07:50:09Z) - DynaVol: Unsupervised Learning for Dynamic Scenes through Object-Centric
Voxelization [67.85434518679382]
幾何学構造と物体中心学習を統一した3次元シーン生成モデルDynaVolを提案する。
鍵となるアイデアは、シーンの3D特性を捉えるために、オブジェクト中心のボキセル化を実行することである。
ボクセルの機能は標準空間の変形関数を通じて時間とともに進化し、グローバルな表現学習の基礎を形成する。
論文 参考訳(メタデータ) (2023-04-30T05:29:28Z) - DORT: Modeling Dynamic Objects in Recurrent for Multi-Camera 3D Object
Detection and Tracking [67.34803048690428]
本稿では、この問題を解決するためにRecurrenT(DORT)の動的オブジェクトをモデル化することを提案する。
DORTは、重い計算負担を軽減する動き推定のために、オブジェクトワイズローカルボリュームを抽出する。
フレキシブルで実用的で、ほとんどのカメラベースの3Dオブジェクト検出器に差し込むことができる。
論文 参考訳(メタデータ) (2023-03-29T12:33:55Z) - MOTSLAM: MOT-assisted monocular dynamic SLAM using single-view depth
estimation [5.33931801679129]
MOTSLAMは動的ビジュアルSLAMシステムであり、動的オブジェクトのポーズとバウンディングボックスの両方を追跡する単分子構成を持つ。
KITTIデータセットを用いた実験により,カメラのエゴモーションとモノラルな動的SLAMでの物体追跡の両方において,我々のシステムが最高の性能を示した。
論文 参考訳(メタデータ) (2022-10-05T06:07:10Z) - Visual-Inertial Multi-Instance Dynamic SLAM with Object-level
Relocalisation [14.302118093865849]
密結合型ビジュアル・慣性オブジェクトレベルのマルチインスタンス動的SLAMシステムを提案する。
カメラのポーズ、速度、IMUバイアスを強く最適化し、環境の高密度な3D再構成オブジェクトレベルマップを構築することができる。
論文 参考訳(メタデータ) (2022-08-08T17:13:24Z) - Class-agnostic Reconstruction of Dynamic Objects from Videos [127.41336060616214]
動的オブジェクトをRGBDや校正ビデオから再構成するためのクラスに依存しないフレームワークであるREDOを紹介する。
我々は2つの新しいモジュールを開発し、まず、時間的視覚的手がかりを集約したピクセル整合性を持つ正準4次元暗黙関数を導入する。
第2に、時間的伝播と集約をサポートするためにオブジェクトのダイナミクスをキャプチャする4D変換モジュールを開発する。
論文 参考訳(メタデータ) (2021-12-03T18:57:47Z) - Attentive and Contrastive Learning for Joint Depth and Motion Field
Estimation [76.58256020932312]
単眼視システムからシーンの3次元構造とともにカメラの動きを推定することは複雑な作業である。
モノクロ映像からの3次元物体運動場推定のための自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T16:45:01Z) - DOT: Dynamic Object Tracking for Visual SLAM [83.69544718120167]
DOTはインスタンスセグメンテーションとマルチビュー幾何を組み合わせて、動的オブジェクトのマスクを生成する。
実際にどのオブジェクトが動いているかを判断するために、DOTは、潜在的にダイナミックなオブジェクトの最初のインスタンスを抽出し、次に推定されたカメラモーションで、測光再投射誤差を最小限にして、そのようなオブジェクトを追跡する。
提案手法はORB-SLAM 2の精度とロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-09-30T18:36:28Z) - DymSLAM:4D Dynamic Scene Reconstruction Based on Geometrical Motion
Segmentation [22.444657614883084]
DymSLAM(ダイムSLAM)は、4D(3D + Time)ダイナミックシーンを剛体移動物体で再構成できる動的ステレオ視覚SLAMシステムである。
提案システムでは,動的物体の障害物回避などの高レベルなタスクにロボットを使用できる。
論文 参考訳(メタデータ) (2020-03-10T08:25:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。