論文の概要: Track without Appearance: Learn Box and Tracklet Embedding with Local
and Global Motion Patterns for Vehicle Tracking
- arxiv url: http://arxiv.org/abs/2108.06029v1
- Date: Fri, 13 Aug 2021 02:27:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-16 20:35:32.132204
- Title: Track without Appearance: Learn Box and Tracklet Embedding with Local
and Global Motion Patterns for Vehicle Tracking
- Title(参考訳): track without appearance: learn box and tracklet embedded with local and global motion patterns for vehicle tracking
- Authors: Gaoang Wang, Renshu Gu, Zuozhu Liu, Weijie Hu, Mingli Song, Jenq-Neng
Hwang
- Abstract要約: 車両追跡は多目的追跡(MOT)分野において重要な課題である。
本稿では,外見情報のない車両追跡における動作パターンの重要性について検討する。
本稿では, 長期追跡のための関連課題を, 排他的かつ完全な運動情報を用いて解決する手法を提案する。
- 参考スコア(独自算出の注目度): 45.524183249765244
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vehicle tracking is an essential task in the multi-object tracking (MOT)
field. A distinct characteristic in vehicle tracking is that the trajectories
of vehicles are fairly smooth in both the world coordinate and the image
coordinate. Hence, models that capture motion consistencies are of high
necessity. However, tracking with the standalone motion-based trackers is quite
challenging because targets could get lost easily due to limited information,
detection error and occlusion. Leveraging appearance information to assist
object re-identification could resolve this challenge to some extent. However,
doing so requires extra computation while appearance information is sensitive
to occlusion as well. In this paper, we try to explore the significance of
motion patterns for vehicle tracking without appearance information. We propose
a novel approach that tackles the association issue for long-term tracking with
the exclusive fully-exploited motion information. We address the tracklet
embedding issue with the proposed reconstruct-to-embed strategy based on deep
graph convolutional neural networks (GCN). Comprehensive experiments on the
KITTI-car tracking dataset and UA-Detrac dataset show that the proposed method,
though without appearance information, could achieve competitive performance
with the state-of-the-art (SOTA) trackers. The source code will be available at
https://github.com/GaoangW/LGMTracker.
- Abstract(参考訳): 車両追跡は多目的追跡(MOT)分野において重要な課題である。
車両追跡における特徴は、車両の軌道が世界座標と画像座標の両方においてかなり滑らかであることである。
したがって、動きを捉えるモデルは非常に必要である。
しかし、限られた情報、検出エラー、閉塞により目標が容易に失われる可能性があるため、スタンドアロンのモーションベースのトラッカーによるトラッキングは非常に難しい。
オブジェクトの再識別を支援するために外観情報を活用することで、この課題をある程度解決することができる。
しかし, 出現情報は咬合にも敏感であり, 余分な計算が必要となる。
本稿では,外観情報のない車両追跡における動きパターンの意義について検討する。
本稿では, 長期追跡のための関連課題に, 排他的完全公開動作情報を用いた新しいアプローチを提案する。
本稿では,ディープグラフ畳み込みニューラルネットワーク(gcn)に基づく再構成・組込み戦略において,トラックレット埋め込み問題に対処する。
KITTI-car TrackingデータセットとUA-Detracデータセットの総合的な実験により、提案手法は外観情報を持たないが、最先端(SOTA)トラッカーとの競合性能を実現することができた。
ソースコードはhttps://github.com/gaoangw/lgmtrackerで入手できる。
関連論文リスト
- DenseTrack: Drone-based Crowd Tracking via Density-aware Motion-appearance Synergy [33.57923199717605]
ドローンによる群集追跡は、空中からの物体の正確な識別と監視に困難に直面している。
これらの課題に対処するために、密度認識追跡(DenseTrack)フレームワークを提案する。
DenseTrackは、群衆のカウントに乗じて、オブジェクトの位置を正確に決定し、視覚とモーションのキューを混ぜて、小規模オブジェクトの追跡を改善する。
論文 参考訳(メタデータ) (2024-07-24T13:39:07Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - OmniTracker: Unifying Object Tracking by Tracking-with-Detection [119.51012668709502]
OmniTrackerは、完全に共有されたネットワークアーキテクチャ、モデルウェイト、推論パイプラインですべてのトラッキングタスクを解決するために提供されている。
LaSOT、TrackingNet、DAVIS16-17、MOT17、MOTS20、YTVIS19を含む7つの追跡データセットの実験は、OmniTrackerがタスク固有の追跡モデルと統合された追跡モデルの両方よりも、オンパーまたはそれ以上の結果を達成することを示した。
論文 参考訳(メタデータ) (2023-03-21T17:59:57Z) - CXTrack: Improving 3D Point Cloud Tracking with Contextual Information [59.55870742072618]
3Dオブジェクトトラッキングは、自律運転など、多くのアプリケーションにおいて重要な役割を果たす。
CXTrackは3次元オブジェクト追跡のためのトランスフォーマーベースのネットワークである。
CXTrackは29FPSで動作しながら最先端のトラッキング性能を実現する。
論文 参考訳(メタデータ) (2022-11-12T11:29:01Z) - Vehicle Detection and Tracking From Surveillance Cameras in Urban Scenes [9.54261903220931]
本稿では,多車車検出・追跡システムを提案する。
本手法は車種再識別機能を備えたIOU(Intersection-over-Union)トラッカーを拡張した。
UA-DETRACベンチマークでは,オンライン利用に適した処理速度を維持しながら,ベースラインMOT法より優れています。
論文 参考訳(メタデータ) (2021-09-25T18:21:44Z) - Exploring Simple 3D Multi-Object Tracking for Autonomous Driving [10.921208239968827]
LiDARポイントクラウドにおける3Dマルチオブジェクトトラッキングは、自動運転車にとって重要な要素である。
既存の手法は、主にトラッキング・バイ・検出パイプラインに基づいており、検出アソシエーションのマッチングステップが必然的に必要である。
我々は,手作りの追跡パラダイムをシンプルにするために,原点雲からの共同検出と追跡のためのエンドツーエンドのトレーニング可能なモデルを提案する。
論文 参考訳(メタデータ) (2021-08-23T17:59:22Z) - Track to Detect and Segment: An Online Multi-Object Tracker [81.15608245513208]
TraDeSは、エンドツーエンドの検出を支援するために追跡の手がかりを利用するオンライン共同検出および追跡モデルです。
TraDeSは、以前のオブジェクトの機能を伝播するために使用されるコストボリュームでオブジェクト追跡オフセットを推測します。
論文 参考訳(メタデータ) (2021-03-16T02:34:06Z) - DEFT: Detection Embeddings for Tracking [3.326320568999945]
我々は,DEFT と呼ばれる効率的な関節検出・追跡モデルを提案する。
提案手法は,外見に基づくオブジェクトマッチングネットワークと,下層のオブジェクト検出ネットワークとの協調学習に依存している。
DEFTは2Dオンライントラッキングリーダーボードのトップメソッドに匹敵する精度とスピードを持っている。
論文 参考訳(メタデータ) (2021-02-03T20:00:44Z) - Probabilistic 3D Multi-Modal, Multi-Object Tracking for Autonomous
Driving [22.693895321632507]
異なる訓練可能なモジュールからなる確率的、マルチモーダル、マルチオブジェクトトラッキングシステムを提案する。
本手法はNuScenes Trackingデータセットの現在の状態を上回っていることを示した。
論文 参考訳(メタデータ) (2020-12-26T15:00:54Z) - Tracklets Predicting Based Adaptive Graph Tracking [51.352829280902114]
マルチオブジェクト追跡,すなわち textbfTPAGT のための,正確かつエンドツーエンドの学習フレームワークを提案する。
動作予測に基づいて、現在のフレーム内のトラックレットの特徴を再抽出する。
論文 参考訳(メタデータ) (2020-10-18T16:16:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。