論文の概要: Tracking Objects as Points
- arxiv url: http://arxiv.org/abs/2004.01177v2
- Date: Fri, 21 Aug 2020 16:28:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 12:55:35.368001
- Title: Tracking Objects as Points
- Title(参考訳): ポイントとしてのオブジェクトの追跡
- Authors: Xingyi Zhou, Vladlen Koltun, Philipp Kr\"ahenb\"uhl
- Abstract要約: 同時に検出と追跡を同時に行うアルゴリズムは,最先端技術よりもシンプルで,高速で,高精度である。
トラッカーであるCenterTrackは、前のフレームから一対のイメージと検出に検出モデルを適用します。
CenterTrackはシンプルで、オンライン(未来を覗くことはない)で、リアルタイムだ。
- 参考スコア(独自算出の注目度): 83.9217787335878
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tracking has traditionally been the art of following interest points through
space and time. This changed with the rise of powerful deep networks. Nowadays,
tracking is dominated by pipelines that perform object detection followed by
temporal association, also known as tracking-by-detection. In this paper, we
present a simultaneous detection and tracking algorithm that is simpler,
faster, and more accurate than the state of the art. Our tracker, CenterTrack,
applies a detection model to a pair of images and detections from the prior
frame. Given this minimal input, CenterTrack localizes objects and predicts
their associations with the previous frame. That's it. CenterTrack is simple,
online (no peeking into the future), and real-time. It achieves 67.3% MOTA on
the MOT17 challenge at 22 FPS and 89.4% MOTA on the KITTI tracking benchmark at
15 FPS, setting a new state of the art on both datasets. CenterTrack is easily
extended to monocular 3D tracking by regressing additional 3D attributes. Using
monocular video input, it achieves 28.3% AMOTA@0.2 on the newly released
nuScenes 3D tracking benchmark, substantially outperforming the monocular
baseline on this benchmark while running at 28 FPS.
- Abstract(参考訳): トラッキングは伝統的に、空間と時間を通して関心点に従う技術であった。
これは強力なディープネットワークの台頭とともに変化した。
今日では、トラッキングはオブジェクト検出を行うパイプラインに支配され、時間的アソシエーション(トラッキング・バイ・検出とも呼ばれる)が続く。
本稿では,最先端技術よりもシンプルで高速かつ高精度な同時検出・追跡アルゴリズムを提案する。
トラッカーであるCenterTrackは、前のフレームから一対のイメージと検出に検出モデルを適用します。
この最小入力により、centertrackはオブジェクトをローカライズし、前のフレームとの関連付けを予測する。
それだけだ。
centertrackはシンプルで、オンライン(未来を覗くことなく)、そしてリアルタイムだ。
これは、22 FPSのMOT17チャレンジで67.3% MOTA、15 FPSのKITTIトラッキングベンチマークで89.4% MOTAを達成した。
CenterTrackは、追加の3D属性を回帰することで、モノラルな3Dトラッキングに容易に拡張できる。
単眼ビデオ入力を用いて、新たにリリースされたnuscenes 3d trackingベンチマークで28.3%のamota@0.2を達成し、28fpsで動作しながら、このベンチマークで単眼ベースラインを実質的に上回った。
関連論文リスト
- SeqTrack3D: Exploring Sequence Information for Robust 3D Point Cloud
Tracking [26.405519771454102]
本稿では,SeqTrack3DというトラッカーとSequence-to-Sequenceトラッキングパラダイムを導入し,連続フレーム間の目標運動をキャプチャする。
本手法は, 重要点の少ないシーンにおいても, 歴史的ボックスからの位置情報を有効活用することにより, ロバストなトラッキングを実現する。
大規模なデータセットで実施された実験は、SeqTrack3Dが新しい最先端のパフォーマンスを実現することを示している。
論文 参考訳(メタデータ) (2024-02-26T02:14:54Z) - STTracker: Spatio-Temporal Tracker for 3D Single Object Tracking [11.901758708579642]
ポイントクラウドによる3Dオブジェクトのトラッキングは、3Dコンピュータビジョンにおいて重要なタスクである。
以前の方法は、通常、最後の2つのフレームを入力し、前のフレームのテンプレートポイントクラウドと現在のフレームの検索エリアポイントクラウドを使用する。
論文 参考訳(メタデータ) (2023-06-30T07:25:11Z) - ByteTrackV2: 2D and 3D Multi-Object Tracking by Associating Every
Detection Box [81.45219802386444]
マルチオブジェクトトラッキング(MOT)は、ビデオフレーム間のオブジェクトのバウンディングボックスとIDを推定することを目的としている。
低スコア検出ボックス内の真のオブジェクトをマイニングするための階層型データアソシエーション戦略を提案する。
3次元のシナリオでは、トラッカーが世界座標の物体速度を予測するのがずっと簡単である。
論文 参考訳(メタデータ) (2023-03-27T15:35:21Z) - VariabilityTrack:Multi-Object Tracking with Variable Speed Object
Movement [1.6385815610837167]
マルチオブジェクトトラッキング(MOT)は、ビデオ内のオブジェクトのバウンディングボックスとIDを推定することを目的としている。
環境フィードバックに基づく可変速度カルマンフィルタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-12T12:39:41Z) - A Lightweight and Detector-free 3D Single Object Tracker on Point Clouds [50.54083964183614]
生のLiDARスキャンにおける物体の点雲は、通常スパースで不完全であるため、正確な目標固有検出を行うのは簡単ではない。
DMTは、複雑な3D検出器の使用を完全に除去する3Dトラッキングネットワークである。
論文 参考訳(メタデータ) (2022-03-08T17:49:07Z) - ByteTrack: Multi-Object Tracking by Associating Every Detection Box [51.93588012109943]
マルチオブジェクトトラッキング(MOT)は、ビデオ内のオブジェクトのバウンディングボックスとIDを推定することを目的としている。
ほとんどの方法は、スコアがしきい値よりも高い検出ボックスを連想させることでアイデンティティを得る。
本稿では,BYTEと呼ばれるシンプルで効果的で汎用的なアソシエーション手法を提案する。
論文 参考訳(メタデータ) (2021-10-13T17:01:26Z) - Multi-object Tracking with Tracked Object Bounding Box Association [18.539658212171062]
CenterTrack Trackingアルゴリズムは,単純な検出モデルと単一フレーム空間オフセットを用いて,最先端のトラッキング性能を実現する。
本研究では,CenterTrackアルゴリズムに,現在のフレームに基づく単純なトラッキングオブジェクトバウンディングボックスと重複予測を組み込むことを提案する。
論文 参考訳(メタデータ) (2021-05-17T14:32:47Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - Quasi-Dense Similarity Learning for Multiple Object Tracking [82.93471035675299]
本稿では, コントラスト学習のための画像に対して, 数百の領域提案を高密度にサンプリングする準高次類似性学習を提案する。
この類似性学習と既存の検出手法を直接組み合わせてQuasi-Dense Tracking(QDTrack)を構築することができる。
論文 参考訳(メタデータ) (2020-06-11T17:57:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。