論文の概要: DynaSLAM II: Tightly-Coupled Multi-Object Tracking and SLAM
- arxiv url: http://arxiv.org/abs/2010.07820v1
- Date: Thu, 15 Oct 2020 15:25:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 05:13:40.791426
- Title: DynaSLAM II: Tightly-Coupled Multi-Object Tracking and SLAM
- Title(参考訳): DynaSLAM II: 密結合型マルチオブジェクトトラッキングとSLAM
- Authors: Berta Bescos, Carlos Campos, Juan D. Tard\'os, Jos\'e Neira
- Abstract要約: DynaSLAM IIは、ステレオおよびRGB-D構成のための視覚的SLAMシステムであり、マルチオブジェクト追跡機能を密に統合している。
動的物体の追跡はシーン理解のための豊富な手がかりを提供するだけでなく、カメラ追跡にも有用であることを示す。
- 参考スコア(独自算出の注目度): 2.9822184411723645
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The assumption of scene rigidity is common in visual SLAM algorithms.
However, it limits their applicability in populated real-world environments.
Furthermore, most scenarios including autonomous driving, multi-robot
collaboration and augmented/virtual reality, require explicit motion
information of the surroundings to help with decision making and scene
understanding. We present in this paper DynaSLAM II, a visual SLAM system for
stereo and RGB-D configurations that tightly integrates the multi-object
tracking capability.
DynaSLAM II makes use of instance semantic segmentation and of ORB features
to track dynamic objects. The structure of the static scene and of the dynamic
objects is optimized jointly with the trajectories of both the camera and the
moving agents within a novel bundle adjustment proposal. The 3D bounding boxes
of the objects are also estimated and loosely optimized within a fixed temporal
window. We demonstrate that tracking dynamic objects does not only provide rich
clues for scene understanding but is also beneficial for camera tracking.
The project code will be released upon acceptance.
- Abstract(参考訳): シーン剛性の仮定は視覚SLAMアルゴリズムで一般的である。
しかし、実環境における適用性には制限がある。
さらに、自律運転、マルチロボットコラボレーション、拡張現実/仮想現実を含むほとんどのシナリオは、意思決定やシーン理解を支援するために周囲の明確な動き情報を必要とする。
本稿では,マルチオブジェクトトラッキング機能を密に統合したステレオおよびrgb-d構成用ビジュアルスラムシステムdynaslam iiについて述べる。
DynaSLAM IIはインスタンスセマンティックセグメンテーションとORB機能を使って動的オブジェクトを追跡する。
静的シーンの構造と動的オブジェクトの構造は、新しいバンドル調整提案において、カメラと移動エージェントの両方の軌跡と共同で最適化される。
オブジェクトの3Dバウンディングボックスも推定され、固定時間ウィンドウ内で緩やかに最適化される。
動的物体の追跡はシーン理解のための豊富な手がかりを提供するだけでなく、カメラ追跡にも有用であることを示す。
プロジェクトのコードは受け入れ次第リリースされます。
関連論文リスト
- Shape of Motion: 4D Reconstruction from a Single Video [51.04575075620677]
本稿では,全列長3D動作を特徴とする汎用動的シーンを再構築する手法を提案する。
シーン動作をコンパクトなSE3モーションベースで表現することで,3次元動作の低次元構造を利用する。
本手法は,3D/2Dの長距離動き推定と動的シーンにおける新しいビュー合成の両面において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-07-18T17:59:08Z) - HUGS: Holistic Urban 3D Scene Understanding via Gaussian Splatting [53.6394928681237]
RGB画像に基づく都市景観の全体的理解は、難しいが重要な問題である。
我々の主な考え方は、静的な3Dガウスと動的なガウスの組合せを用いた幾何学、外観、意味論、運動の合同最適化である。
提案手法は,2次元および3次元のセマンティック情報を高精度に生成し,新たな視点をリアルタイムに描画する機能を提供する。
論文 参考訳(メタデータ) (2024-03-19T13:39:05Z) - DrivingGaussian: Composite Gaussian Splatting for Surrounding Dynamic Autonomous Driving Scenes [57.12439406121721]
我々は動的自律走行シーンを囲む効率的かつ効果的なフレームワークであるDrivingGaussianを提案する。
動くオブジェクトを持つ複雑なシーンでは、まずシーン全体の静的な背景を逐次、段階的にモデル化します。
次に、複合動的ガウスグラフを利用して、複数の移動物体を処理する。
我々はさらに、ガウススプラッティングに先立ってLiDARを使用して、より詳細でシーンを再構築し、パノラマ一貫性を維持する。
論文 参考訳(メタデータ) (2023-12-13T06:30:51Z) - MOTSLAM: MOT-assisted monocular dynamic SLAM using single-view depth
estimation [5.33931801679129]
MOTSLAMは動的ビジュアルSLAMシステムであり、動的オブジェクトのポーズとバウンディングボックスの両方を追跡する単分子構成を持つ。
KITTIデータセットを用いた実験により,カメラのエゴモーションとモノラルな動的SLAMでの物体追跡の両方において,我々のシステムが最高の性能を示した。
論文 参考訳(メタデータ) (2022-10-05T06:07:10Z) - TwistSLAM++: Fusing multiple modalities for accurate dynamic semantic
SLAM [0.0]
TwistSLAM++は、ステレオ画像とLiDAR情報を融合するセマンティックでダイナミックなSLAMシステムである。
従来のベンチマークでは,マルチモーダル情報に基づく融合手法によりオブジェクト追跡の精度が向上していることが示されている。
論文 参考訳(メタデータ) (2022-09-16T12:28:21Z) - TwistSLAM: Constrained SLAM in Dynamic Environment [0.0]
本稿では,シーン内の動的オブジェクトをトラッキングできる意味的・動的・ステレオSLAMシステムTwistSLAMを提案する。
我々のアルゴリズムは、それらの意味クラスに応じて点の集合を生成する。
環境の静的な部分を使って、カメラをしっかりとローカライズし、残りのオブジェクトを追跡する。
論文 参考訳(メタデータ) (2022-02-24T22:08:45Z) - DL-SLOT: Dynamic Lidar SLAM and Object Tracking Based On Graph
Optimization [2.889268075288957]
エゴ位置推定と動的物体追跡は、自律運転システムにおける2つの重要な問題である。
本稿では,動的Lidar SLAMとオブジェクト追跡手法であるDL-SLOTを提案する。
我々はこのフレームワークでSLAMとオブジェクトトラッキングを同時に実行し、高ダイナミックな道路シナリオにおけるSLAMの堅牢性と精度を大幅に向上させる。
論文 参考訳(メタデータ) (2022-02-23T11:22:43Z) - Class-agnostic Reconstruction of Dynamic Objects from Videos [127.41336060616214]
動的オブジェクトをRGBDや校正ビデオから再構成するためのクラスに依存しないフレームワークであるREDOを紹介する。
我々は2つの新しいモジュールを開発し、まず、時間的視覚的手がかりを集約したピクセル整合性を持つ正準4次元暗黙関数を導入する。
第2に、時間的伝播と集約をサポートするためにオブジェクトのダイナミクスをキャプチャする4D変換モジュールを開発する。
論文 参考訳(メタデータ) (2021-12-03T18:57:47Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - DOT: Dynamic Object Tracking for Visual SLAM [83.69544718120167]
DOTはインスタンスセグメンテーションとマルチビュー幾何を組み合わせて、動的オブジェクトのマスクを生成する。
実際にどのオブジェクトが動いているかを判断するために、DOTは、潜在的にダイナミックなオブジェクトの最初のインスタンスを抽出し、次に推定されたカメラモーションで、測光再投射誤差を最小限にして、そのようなオブジェクトを追跡する。
提案手法はORB-SLAM 2の精度とロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-09-30T18:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。