論文の概要: Delving into Motion-Aware Matching for Monocular 3D Object Tracking
- arxiv url: http://arxiv.org/abs/2308.11607v1
- Date: Tue, 22 Aug 2023 17:53:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 17:10:40.733103
- Title: Delving into Motion-Aware Matching for Monocular 3D Object Tracking
- Title(参考訳): モノクロ3次元物体追跡のための動き認識マッチング
- Authors: Kuan-Chih Huang, Ming-Hsuan Yang, Yi-Hsuan Tsai
- Abstract要約: 異なる時間軸に沿った物体の運動キューが3次元多物体追跡において重要であることが判明した。
3つの動き認識コンポーネントからなるフレームワークであるMoMA-M3Tを提案する。
我々はnuScenesとKITTIデータセットに関する広範な実験を行い、MoMA-M3Tが最先端の手法と競合する性能を発揮することを実証した。
- 参考スコア(独自算出の注目度): 81.68608983602581
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances of monocular 3D object detection facilitate the 3D
multi-object tracking task based on low-cost camera sensors. In this paper, we
find that the motion cue of objects along different time frames is critical in
3D multi-object tracking, which is less explored in existing monocular-based
approaches. In this paper, we propose a motion-aware framework for monocular 3D
MOT. To this end, we propose MoMA-M3T, a framework that mainly consists of
three motion-aware components. First, we represent the possible movement of an
object related to all object tracklets in the feature space as its motion
features. Then, we further model the historical object tracklet along the time
frame in a spatial-temporal perspective via a motion transformer. Finally, we
propose a motion-aware matching module to associate historical object tracklets
and current observations as final tracking results. We conduct extensive
experiments on the nuScenes and KITTI datasets to demonstrate that our MoMA-M3T
achieves competitive performance against state-of-the-art methods. Moreover,
the proposed tracker is flexible and can be easily plugged into existing
image-based 3D object detectors without re-training. Code and models are
available at https://github.com/kuanchihhuang/MoMA-M3T.
- Abstract(参考訳): 単眼3次元物体検出の最近の進歩は、低コストカメラセンサに基づく3次元多物体追跡作業を容易にする。
本稿では,異なる時間軸に沿った物体の動きの手がかりが3次元マルチオブジェクト追跡において重要であることを見出した。
本稿では,モノクル3次元MOTのための動き認識フレームワークを提案する。
そこで本稿では,3つのモーションアウェアコンポーネントからなるフレームワークであるmoma-m3tを提案する。
まず,特徴空間内のすべての対象トラックレットに関連する物体の動きを運動特徴として表現する。
次に,移動変換器を用いて時間軸に沿った時間的視点で過去の物体追跡をモデル化する。
最後に、過去の物体追跡と現在の観測結果を最終追跡結果として関連付ける動き認識モジュールを提案する。
我々はnuScenesとKITTIデータセットに関する広範な実験を行い、MoMA-M3Tが最先端の手法と競合する性能を発揮することを示した。
さらに,提案するトラッカーは柔軟で,既存の画像ベース3Dオブジェクト検出器に再学習することなく簡単に接続できる。
コードとモデルはhttps://github.com/kuanchihhuang/moma-m3tで入手できる。
関連論文リスト
- TrajectoryFormer: 3D Object Tracking Transformer with Predictive
Trajectory Hypotheses [51.60422927416087]
3Dマルチオブジェクトトラッキング(MOT)は、自律走行車やサービスロボットを含む多くのアプリケーションにとって不可欠である。
本稿では,新しいポイントクラウドベースの3DMOTフレームワークであるTrjectoryFormerを紹介する。
論文 参考訳(メタデータ) (2023-06-09T13:31:50Z) - TripletTrack: 3D Object Tracking using Triplet Embeddings and LSTM [0.0]
3Dオブジェクトトラッキングは、自動運転システムにおいて重要なタスクである。
本稿では,3次元物体追跡における3重項埋め込みと動作表現の併用について検討する。
論文 参考訳(メタデータ) (2022-10-28T15:23:50Z) - A Simple Baseline for Multi-Camera 3D Object Detection [94.63944826540491]
周囲のカメラで3Dオブジェクトを検出することは、自動運転にとって有望な方向だ。
マルチカメラオブジェクト検出のための簡易ベースラインであるSimMODを提案する。
我々は, nuScenes の3次元オブジェクト検出ベンチマークにおいて, SimMOD の有効性を示す広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-08-22T03:38:01Z) - Time3D: End-to-End Joint Monocular 3D Object Detection and Tracking for
Autonomous Driving [3.8073142980733]
本稿では,モノクローナルビデオのみからエンドツーエンドに3D検出と3D追跡を共同で行うことを提案する。
Time3Dは21.4%のAMOTA、13.6%のAMOTPをnuScenesの3D追跡ベンチマークで達成し、全競合を抜いた。
論文 参考訳(メタデータ) (2022-05-30T06:41:10Z) - Exploring Optical-Flow-Guided Motion and Detection-Based Appearance for
Temporal Sentence Grounding [61.57847727651068]
テンポラルな文グラウンドディングは、与えられた文クエリに従って、意図しないビデオのターゲットセグメントをセマンティックにローカライズすることを目的としている。
これまでのほとんどの研究は、ビデオ全体のフレーム全体のフレームレベルの特徴を学習することに集中しており、それらをテキスト情報と直接一致させる。
我々は,光フロー誘導型モーションアウェア,検出ベース外観アウェア,3D認識オブジェクトレベル機能を備えた,動き誘導型3Dセマンティック推論ネットワーク(MA3SRN)を提案する。
論文 参考訳(メタデータ) (2022-03-06T13:57:09Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - Tracking from Patterns: Learning Corresponding Patterns in Point Clouds
for 3D Object Tracking [34.40019455462043]
本稿では,時間点雲データから3次元オブジェクト対応を学習し,対応パターンから動き情報を推測する。
提案手法は,KITTIと大規模Nuscenesデータセットの双方において,既存の3次元追跡手法を超えている。
論文 参考訳(メタデータ) (2020-10-20T06:07:20Z) - Kinematic 3D Object Detection in Monocular Video [123.7119180923524]
運動運動を注意深く利用して3次元位置決めの精度を向上させるモノクロ映像を用いた3次元物体検出法を提案する。
我々は、KITTI自動運転データセット内のモノクロ3次元物体検出とバードアイビュータスクの最先端性能を達成する。
論文 参考訳(メタデータ) (2020-07-19T01:15:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。