論文の概要: Learning to Track with Object Permanence
- arxiv url: http://arxiv.org/abs/2103.14258v1
- Date: Fri, 26 Mar 2021 04:43:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-29 12:45:34.051198
- Title: Learning to Track with Object Permanence
- Title(参考訳): オブジェクトの永続性で追跡する学習
- Authors: Pavel Tokmakov, Jie Li, Wolfram Burgard, Adrien Gaidon
- Abstract要約: 共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
- 参考スコア(独自算出の注目度): 61.36492084090744
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Tracking by detection, the dominant approach for online multi-object
tracking, alternates between localization and re-identification steps. As a
result, it strongly depends on the quality of instantaneous observations, often
failing when objects are not fully visible. In contrast, tracking in humans is
underlined by the notion of object permanence: once an object is recognized, we
are aware of its physical existence and can approximately localize it even
under full occlusions. In this work, we introduce an end-to-end trainable
approach for joint object detection and tracking that is capable of such
reasoning. We build on top of the recent CenterTrack architecture, which takes
pairs of frames as input, and extend it to videos of arbitrary length. To this
end, we augment the model with a spatio-temporal, recurrent memory module,
allowing it to reason about object locations and identities in the current
frame using all the previous history. It is, however, not obvious how to train
such an approach. We study this question on a new, large-scale, synthetic
dataset for multi-object tracking, which provides ground truth annotations for
invisible objects, and propose several approaches for supervising tracking
behind occlusions. Our model, trained jointly on synthetic and real data,
outperforms the state of the art on KITTI, and MOT17 datasets thanks to its
robustness to occlusions.
- Abstract(参考訳): オンライン多目的追跡の主要なアプローチである検出による追跡は、ローカライゼーションと再識別のステップを交互に行う。
結果として、それは瞬時観測の品質に大きく依存し、しばしばオブジェクトが完全に見えない場合に失敗する。
対照的に、人間の追跡はオブジェクトの永続性の概念によって下書きされている: 一度物体が認識されると、その物理的存在を認識し、完全なオクルージョンの下でもほぼ局所化することができる。
本研究では,このような推論が可能なジョイントオブジェクトの検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを提案する。
私たちはCenterTrackアーキテクチャの上に構築され、このアーキテクチャは2組のフレームを入力として取り、任意の長さのビデオに拡張します。
この目的のために、時空間の繰り返しメモリモジュールを用いてモデルを拡張し、過去のすべての履歴を用いて現在のフレーム内のオブジェクトの位置とアイデンティティを推論する。
しかし、そのようなアプローチをいかに訓練するかは明らかではない。
本研究では,目立たない物体に対する基底的真理のアノテーションを提供するマルチオブジェクト追跡のための新しい大規模合成データセットについて検討し,オクルージョンの背後にある追跡を監督するためのいくつかのアプローチを提案する。
我々のモデルは、合成データと実データに基づいて共同で訓練され、オクルージョンに対するロバスト性により、KITTIとMOT17データセットにおける技術状況よりも優れています。
関連論文リスト
- Leveraging Object Priors for Point Tracking [25.030407197192]
ポイントトラッキングは、コンピュータビジョンにおける基本的な問題であり、多くのARやロボット工学への応用がある。
本稿では,対象の先行点に注意を向ける新たな対象性正規化手法を提案する。
提案手法は,3点追跡ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2024-09-09T16:48:42Z) - Lost and Found: Overcoming Detector Failures in Online Multi-Object Tracking [15.533652456081374]
マルチオブジェクト追跡(MOT)は、時間とともに複数のオブジェクトのアイデンティティと位置を正確に推定する。
現代の検出器は、あるフレーム内のいくつかのオブジェクトを見逃すことがあるため、トラッカーは早めに追跡をやめる。
オンラインTbDシステムと互換性のある汎用フレームワークであるBUSCAを提案する。
論文 参考訳(メタデータ) (2024-07-14T10:45:12Z) - Object-Centric Multiple Object Tracking [124.30650395969126]
本稿では,多目的追跡パイプラインのためのビデオオブジェクト中心モデルを提案する。
オブジェクト中心のスロットを検出出力に適応するインデックスマージモジュールと、オブジェクトメモリモジュールで構成される。
オブジェクト中心学習に特化して、オブジェクトのローカライゼーションと機能バインディングのためのスパース検出ラベルしか必要としない。
論文 参考訳(メタデータ) (2023-09-01T03:34:12Z) - Once Detected, Never Lost: Surpassing Human Performance in Offline LiDAR
based 3D Object Detection [50.959453059206446]
本稿では,高性能なオフラインLiDARによる3Dオブジェクト検出を実現することを目的とする。
まず、経験豊富な人間のアノテータが、トラック中心の視点でオブジェクトに注釈を付けるのを観察する。
従来のオブジェクト中心の視点ではなく,トラック中心の視点で高性能なオフライン検出器を提案する。
論文 参考訳(メタデータ) (2023-04-24T17:59:05Z) - Standing Between Past and Future: Spatio-Temporal Modeling for
Multi-Camera 3D Multi-Object Tracking [30.357116118917368]
本稿では,エンドツーエンドのマルチカメラ3Dマルチオブジェクト追跡フレームワークを提案する。
我々はこれを"Past-and-Future reasoning for Tracking"(PFTrack)と呼ぶ。
論文 参考訳(メタデータ) (2023-02-07T23:46:34Z) - SpOT: Spatiotemporal Modeling for 3D Object Tracking [68.12017780034044]
3Dマルチオブジェクトトラッキングは、常にすべてのモバイル時間を特定することを目的としている。
現在の3Dトラッキング手法は、抽象化された情報と限られた歴史に依存している。
本研究では,空間的情報と時間的情報の両方を活用するシーンの全体的表現を開発する。
論文 参考訳(メタデータ) (2022-07-12T21:45:49Z) - Learning to Track Object Position through Occlusion [32.458623495840904]
オクルージョンは、物体検出器やトラッカーが直面する最も重要な課題の1つである。
本稿では,領域ベースビデオオブジェクト検出装置の成功に基づくトラッキング・バイ・検出手法を提案する。
提案手法は,インターネットから収集した家具組立ビデオのデータセットにおいて,優れた結果が得られる。
論文 参考訳(メタデータ) (2021-06-20T22:29:46Z) - Looking Beyond Two Frames: End-to-End Multi-Object Tracking Using
Spatial and Temporal Transformers [20.806348407522083]
MO3TRはエンドツーエンドのオンラインマルチオブジェクトトラッキングフレームワークです。
オブジェクトの相互作用を長期の時間的埋め込みにエンコードする。
明示的なデータアソシエーションモジュールを必要とせずに、開始と終了を追跡する。
論文 参考訳(メタデータ) (2021-03-27T07:23:38Z) - Detecting Invisible People [58.49425715635312]
我々は,追跡ベンチマークを再利用し,目立たない物体を検出するための新しい指標を提案する。
私たちは、現在の検出および追跡システムがこのタスクで劇的に悪化することを実証します。
第2に,最先端の単眼深度推定ネットワークによる観測結果を用いて,3次元で明示的に推論する動的モデルを構築した。
論文 参考訳(メタデータ) (2020-12-15T16:54:45Z) - SoDA: Multi-Object Tracking with Soft Data Association [75.39833486073597]
マルチオブジェクトトラッキング(MOT)は、自動運転車の安全な配備の前提条件である。
観測対象間の依存関係をエンコードするトラック埋め込みの計算に注目するMOTに対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-08-18T03:40:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。