論文の概要: Monocular Quasi-Dense 3D Object Tracking
- arxiv url: http://arxiv.org/abs/2103.07351v1
- Date: Fri, 12 Mar 2021 15:30:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-15 13:20:36.250872
- Title: Monocular Quasi-Dense 3D Object Tracking
- Title(参考訳): モノクロ擬似3次元物体追跡
- Authors: Hou-Ning Hu, Yung-Hsu Yang, Tobias Fischer, Trevor Darrell, Fisher Yu,
Min Sun
- Abstract要約: 周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
- 参考スコア(独自算出の注目度): 99.51683944057191
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A reliable and accurate 3D tracking framework is essential for predicting
future locations of surrounding objects and planning the observer's actions in
numerous applications such as autonomous driving. We propose a framework that
can effectively associate moving objects over time and estimate their full 3D
bounding box information from a sequence of 2D images captured on a moving
platform. The object association leverages quasi-dense similarity learning to
identify objects in various poses and viewpoints with appearance cues only.
After initial 2D association, we further utilize 3D bounding boxes
depth-ordering heuristics for robust instance association and motion-based 3D
trajectory prediction for re-identification of occluded vehicles. In the end,
an LSTM-based object velocity learning module aggregates the long-term
trajectory information for more accurate motion extrapolation. Experiments on
our proposed simulation data and real-world benchmarks, including KITTI,
nuScenes, and Waymo datasets, show that our tracking framework offers robust
object association and tracking on urban-driving scenarios. On the Waymo Open
benchmark, we establish the first camera-only baseline in the 3D tracking and
3D detection challenges. Our quasi-dense 3D tracking pipeline achieves
impressive improvements on the nuScenes 3D tracking benchmark with near five
times tracking accuracy of the best vision-only submission among all published
methods. Our code, data and trained models are available at
https://github.com/SysCV/qd-3dt.
- Abstract(参考訳): 周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
オブジェクトアソシエーションは、擬似密接な類似性学習を利用して、様々なポーズや視点のオブジェクトを識別する。
初期2Dアソシエーション後,ロバストなインスタンスアソシエーションと3次元軌跡予測に3Dバウンディングボックスの奥行きヒューリスティックスを利用する。
最後に、LSTMに基づく物体速度学習モジュールは、より正確な運動外挿のための長期軌跡情報を集約する。
提案するシミュレーションデータと,kitti,nuscenes,waymoデータセットを含む実世界のベンチマーク実験から,我々の追跡フレームワークがロバストなオブジェクト関連付けと都市走行シナリオの追跡を提供することが示された。
Waymo Openベンチマークでは、3Dトラッキングと3D検出の課題において、初めてカメラのみのベースラインを確立する。
当社の準強度3Dトラッキングパイプラインは、nuScenes 3Dトラッキングベンチマークの印象的な改善を達成し、公開されたすべての方法の中で最高のビジョンのみの提出の精度を5倍近く追跡します。
私たちのコード、データ、トレーニングされたモデルはhttps://github.com/syscv/qd-3dtで利用可能です。
関連論文リスト
- TAPVid-3D: A Benchmark for Tracking Any Point in 3D [63.060421798990845]
我々は,3Dにおける任意の点の追跡作業を評価するための新しいベンチマークTAPVid-3Dを導入する。
このベンチマークは、モノクロビデオから正確な3Dの動きと表面の変形を理解する能力を改善するためのガイドポストとして機能する。
論文 参考訳(メタデータ) (2024-07-08T13:28:47Z) - Delving into Motion-Aware Matching for Monocular 3D Object Tracking [81.68608983602581]
異なる時間軸に沿った物体の運動キューが3次元多物体追跡において重要であることが判明した。
3つの動き認識コンポーネントからなるフレームワークであるMoMA-M3Tを提案する。
我々はnuScenesとKITTIデータセットに関する広範な実験を行い、MoMA-M3Tが最先端の手法と競合する性能を発揮することを実証した。
論文 参考訳(メタデータ) (2023-08-22T17:53:58Z) - Tracking by 3D Model Estimation of Unknown Objects in Videos [122.56499878291916]
この表現は限定的であり、代わりに明示的なオブジェクト表現を用いて2次元追跡をガイドし改善することを提案する。
我々の表現は、全てのビデオフレームのオブジェクト上の全ての3Dポイント間の複雑な長期密度対応問題に取り組む。
提案手法は, 最適3次元形状, テクスチャ, 6DoFのポーズを推定するために, 新たな損失関数を最小化する。
論文 参考訳(メタデータ) (2023-04-13T11:32:36Z) - Time3D: End-to-End Joint Monocular 3D Object Detection and Tracking for
Autonomous Driving [3.8073142980733]
本稿では,モノクローナルビデオのみからエンドツーエンドに3D検出と3D追跡を共同で行うことを提案する。
Time3Dは21.4%のAMOTA、13.6%のAMOTPをnuScenesの3D追跡ベンチマークで達成し、全競合を抜いた。
論文 参考訳(メタデータ) (2022-05-30T06:41:10Z) - A Lightweight and Detector-free 3D Single Object Tracker on Point Clouds [50.54083964183614]
生のLiDARスキャンにおける物体の点雲は、通常スパースで不完全であるため、正確な目標固有検出を行うのは簡単ではない。
DMTは、複雑な3D検出器の使用を完全に除去する3Dトラッキングネットワークである。
論文 参考訳(メタデータ) (2022-03-08T17:49:07Z) - 3D Visual Tracking Framework with Deep Learning for Asteroid Exploration [22.808962211830675]
本稿では,3次元追跡のための高精度かつリアルタイムな手法について検討する。
両眼ビデオシーケンス、深度マップ、様々な小惑星の点雲を含む、新しい大規模な3D小惑星追跡データセットが提示されている。
深層学習に基づく3DトラッキングフレームワークTrack3Dを提案する。このフレームワークは,2次元単分子トラッカーと,新しい軽量アモーダル軸整合バウンディングボックスネットワークであるA3BoxNetを備える。
論文 参考訳(メタデータ) (2021-11-21T04:14:45Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - Relation3DMOT: Exploiting Deep Affinity for 3D Multi-Object Tracking
from View Aggregation [8.854112907350624]
3Dマルチオブジェクトトラッキングは、自律ナビゲーションにおいて重要な役割を果たす。
多くのアプローチでは、トラッキングのための2次元RGBシーケンス内のオブジェクトを検出するが、これは3次元空間内のオブジェクトをローカライズする際の信頼性の欠如である。
本稿では,隣接フレーム内の各オブジェクト間の相関をよりよく活用するために,RelationConvという新しい畳み込み演算を提案する。
論文 参考訳(メタデータ) (2020-11-25T16:14:40Z) - Tracking from Patterns: Learning Corresponding Patterns in Point Clouds
for 3D Object Tracking [34.40019455462043]
本稿では,時間点雲データから3次元オブジェクト対応を学習し,対応パターンから動き情報を推測する。
提案手法は,KITTIと大規模Nuscenesデータセットの双方において,既存の3次元追跡手法を超えている。
論文 参考訳(メタデータ) (2020-10-20T06:07:20Z) - Tracking Emerges by Looking Around Static Scenes, with Neural 3D Mapping [23.456046776979903]
本稿では,任意の場面(静的あるいは動的)における静止点のマルチビューデータを利用して,ニューラル3Dマッピングモジュールを学習することを提案する。
ニューラル3Dマッパーは、RGB-Dデータを入力として消費し、深い特徴の3Dボクセルグリッドを出力として生成する。
教師なし3Dオブジェクトトラッカーは、教師なし2Dと2.5Dのトラッカーよりも優れており、教師なし3Dオブジェクトトラッカーの精度に近づいていることを示す。
論文 参考訳(メタデータ) (2020-08-04T02:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。