論文の概要: UniQuadric: A SLAM Backend for Unknown Rigid Object 3D Tracking and
Light-Weight Modeling
- arxiv url: http://arxiv.org/abs/2309.17036v2
- Date: Mon, 2 Oct 2023 09:50:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-03 10:46:36.921039
- Title: UniQuadric: A SLAM Backend for Unknown Rigid Object 3D Tracking and
Light-Weight Modeling
- Title(参考訳): UniQuadric: 未知の剛体オブジェクトトラッキングと軽量モデリングのためのSLAMバックエンド
- Authors: Linghao Yang, Yanmin Wu, Yu Deng, Rui Tian, Xinggang Hu, Tiefeng Ma
- Abstract要約: 本稿では,エゴモーショントラッキング,剛体オブジェクトモーショントラッキング,モデリングを統一するSLAMバックエンドを提案する。
本システムは,複雑な動的シーンにおける物体知覚の潜在的な応用を実証する。
- 参考スコア(独自算出の注目度): 7.626461564400769
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tracking and modeling unknown rigid objects in the environment play a crucial
role in autonomous unmanned systems and virtual-real interactive applications.
However, many existing Simultaneous Localization, Mapping and Moving Object
Tracking (SLAMMOT) methods focus solely on estimating specific object poses and
lack estimation of object scales and are unable to effectively track unknown
objects. In this paper, we propose a novel SLAM backend that unifies ego-motion
tracking, rigid object motion tracking, and modeling within a joint
optimization framework. In the perception part, we designed a pixel-level
asynchronous object tracker (AOT) based on the Segment Anything Model (SAM) and
DeAOT, enabling the tracker to effectively track target unknown objects guided
by various predefined tasks and prompts. In the modeling part, we present a
novel object-centric quadric parameterization to unify both static and dynamic
object initialization and optimization. Subsequently, in the part of object
state estimation, we propose a tightly coupled optimization model for object
pose and scale estimation, incorporating hybrids constraints into a novel dual
sliding window optimization framework for joint estimation. To our knowledge,
we are the first to tightly couple object pose tracking with light-weight
modeling of dynamic and static objects using quadric. We conduct qualitative
and quantitative experiments on simulation datasets and real-world datasets,
demonstrating the state-of-the-art robustness and accuracy in motion estimation
and modeling. Our system showcases the potential application of object
perception in complex dynamic scenes.
- Abstract(参考訳): 環境における未知の剛体物体の追跡とモデリングは、自律的な無人システムや仮想現実のインタラクティブアプリケーションにおいて重要な役割を果たす。
しかし、多くの既存のSLAMMOTメソッドは、特定のオブジェクトのポーズを推定することに集中しており、オブジェクトのスケールを推定できないため、未知のオブジェクトを効果的に追跡できない。
本稿では,エゴモーショントラッキング,剛体物体の動き追跡,および共同最適化フレームワーク内でのモデリングを統一する新しいSLAMバックエンドを提案する。
認識部では,Segment Anything Model (SAM) とDeAOTに基づく画素レベルの非同期オブジェクトトラッカー (AOT) を設計した。
モデリング部では、静的および動的オブジェクトの初期化と最適化の両方を統一する、新しいオブジェクト中心二次パラメータ化を提案する。
次に,オブジェクト状態推定の一環として,ハイブリッド制約を統合推定のための新しいデュアルスライディングウィンドウ最適化フレームワークに組み込んだ,オブジェクトポーズとスケール推定のための密結合最適化モデルを提案する。
私たちの知る限りでは、quadricを使って動的オブジェクトと静的オブジェクトの軽量モデリングと、オブジェクトのポーズトラッキングを密結合した最初の例です。
シミュレーションデータセットと実世界のデータセットの質的、定量的な実験を行い、動き推定とモデリングにおける最先端のロバスト性と正確性を示す。
本システムは,複雑な動的シーンにおける物体知覚の潜在的応用を示す。
関連論文リスト
- Unsupervised Dynamics Prediction with Object-Centric Kinematics [22.119612406160073]
本稿では,オブジェクト中心表現を利用した動的予測フレームワークであるOcK(Object-Centric Kinematics)を提案する。
OCKは、物体の位置、速度、加速度の低レベルな構造化状態で構成されている。
本モデルは,多種多様なオブジェクト属性と動的動きを特徴とする複雑なシーンにおけるオブジェクトと背景の扱いにおいて,優れた性能を示す。
論文 参考訳(メタデータ) (2024-04-29T04:47:23Z) - DO3D: Self-supervised Learning of Decomposed Object-aware 3D Motion and
Depth from Monocular Videos [76.01906393673897]
本研究では,モノクラービデオから3次元運動と深度を協調的に学習する自己教師手法を提案する。
本システムでは,深度を推定する深度推定モジュールと,エゴモーションと3次元物体の動きを推定する新しい分解対象3次元運動推定モジュールを備える。
我々のモデルは評価されたすべての設定において優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-03-09T12:22:46Z) - FoundationPose: Unified 6D Pose Estimation and Tracking of Novel Objects [55.77542145604758]
FoundationPoseは、6Dオブジェクトのポーズ推定と追跡のための統合基盤モデルである。
我々のアプローチは、微調整なしで、テスト時に新しいオブジェクトに即座に適用できる。
論文 参考訳(メタデータ) (2023-12-13T18:28:09Z) - ROAM: Robust and Object-Aware Motion Generation Using Neural Pose
Descriptors [73.26004792375556]
本稿では,3次元オブジェクト認識キャラクタ合成における新しいシーンオブジェクトへのロバストさと一般化が,参照オブジェクトを1つも持たないモーションモデルをトレーニングすることで実現可能であることを示す。
我々は、オブジェクト専用のデータセットに基づいて訓練された暗黙的な特徴表現を活用し、オブジェクトの周りのSE(3)-同変記述体フィールドをエンコードする。
本研究では,3次元仮想キャラクタの動作と相互作用の質,および未知のオブジェクトを持つシナリオに対するロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-08-24T17:59:51Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - Visual-Inertial Multi-Instance Dynamic SLAM with Object-level
Relocalisation [14.302118093865849]
密結合型ビジュアル・慣性オブジェクトレベルのマルチインスタンス動的SLAMシステムを提案する。
カメラのポーズ、速度、IMUバイアスを強く最適化し、環境の高密度な3D再構成オブジェクトレベルマップを構築することができる。
論文 参考訳(メタデータ) (2022-08-08T17:13:24Z) - DL-SLOT: Dynamic Lidar SLAM and Object Tracking Based On Graph
Optimization [2.889268075288957]
エゴ位置推定と動的物体追跡は、自律運転システムにおける2つの重要な問題である。
本稿では,動的Lidar SLAMとオブジェクト追跡手法であるDL-SLOTを提案する。
我々はこのフレームワークでSLAMとオブジェクトトラッキングを同時に実行し、高ダイナミックな道路シナリオにおけるSLAMの堅牢性と精度を大幅に向上させる。
論文 参考訳(メタデータ) (2022-02-23T11:22:43Z) - Attentive and Contrastive Learning for Joint Depth and Motion Field
Estimation [76.58256020932312]
単眼視システムからシーンの3次元構造とともにカメラの動きを推定することは複雑な作業である。
モノクロ映像からの3次元物体運動場推定のための自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T16:45:01Z) - AirDOS: Dynamic SLAM benefits from Articulated Objects [9.045690662672659]
オブジェクト認識SLAM(DOS)は、動的環境におけるロバストな動き推定を可能にするためにオブジェクトレベル情報を利用する。
AirDOSは、動的な調音オブジェクトを組み込むことで、カメラのポーズ推定を改善することができることを示す最初の動的オブジェクト認識SLAMシステムである。
論文 参考訳(メタデータ) (2021-09-21T01:23:48Z) - Learning Monocular Depth in Dynamic Scenes via Instance-Aware Projection
Consistency [114.02182755620784]
本稿では,複数の動的物体の6-DoF動作,エゴモーション,深度を,監督なしで一眼レフカメラで明示的にモデル化する,エンドツーエンドのジョイントトレーニングフレームワークを提案する。
筆者らのフレームワークは,最先端の深度・動き推定法より優れていた。
論文 参考訳(メタデータ) (2021-02-04T14:26:42Z) - Robust Ego and Object 6-DoF Motion Estimation and Tracking [5.162070820801102]
本稿では,動的多体視覚計測における高精度な推定と一貫した追跡性を実現するためのロバストな解を提案する。
セマンティック・インスタンスレベルのセグメンテーションと正確な光フロー推定の最近の進歩を活用して、コンパクトで効果的なフレームワークを提案する。
追従点の品質と運動推定精度を向上させる新しい定式化SE(3)運動と光流が導入された。
論文 参考訳(メタデータ) (2020-07-28T05:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。