論文の概要: Track to Detect and Segment: An Online Multi-Object Tracker
- arxiv url: http://arxiv.org/abs/2103.08808v1
- Date: Tue, 16 Mar 2021 02:34:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-17 13:29:45.401998
- Title: Track to Detect and Segment: An Online Multi-Object Tracker
- Title(参考訳): track to detection and segment: a online multi-object tracker
- Authors: Jialian Wu, Jiale Cao, Liangchen Song, Yu Wang, Ming Yang, Junsong
Yuan
- Abstract要約: TraDeSは、エンドツーエンドの検出を支援するために追跡の手がかりを利用するオンライン共同検出および追跡モデルです。
TraDeSは、以前のオブジェクトの機能を伝播するために使用されるコストボリュームでオブジェクト追跡オフセットを推測します。
- 参考スコア(独自算出の注目度): 81.15608245513208
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most online multi-object trackers perform object detection stand-alone in a
neural net without any input from tracking. In this paper, we present a new
online joint detection and tracking model, TraDeS (TRAck to DEtect and
Segment), exploiting tracking clues to assist detection end-to-end. TraDeS
infers object tracking offset by a cost volume, which is used to propagate
previous object features for improving current object detection and
segmentation. Effectiveness and superiority of TraDeS are shown on 4 datasets,
including MOT (2D tracking), nuScenes (3D tracking), MOTS and Youtube-VIS
(instance segmentation tracking). Project page:
https://jialianwu.com/projects/TraDeS.html.
- Abstract(参考訳): ほとんどのオンラインマルチオブジェクトトラッカーは、トラッキングからの入力なしで、ニューラルネットでオブジェクト検出スタンドアロンを実行する。
本稿では,新しいオンライン共同検出・追跡モデルであるtrades(track to detection and segment)を提案する。
TraDeSは、現在のオブジェクトの検出とセグメンテーションを改善するために、以前のオブジェクト機能を伝播するために使用されるコストボリュームによってオブジェクト追跡オフセットを推論する。
TraDeSの有効性と優位性は、MOT(2Dトラッキング)、nuScenes(3Dトラッキング)、MOTS、Youtube-VIS(インスタンスセグメンテーショントラッキング)の4つのデータセットに示されている。
プロジェクトページ: https://jialianwu.com/projects/TraDeS.html
関連論文リスト
- Lost and Found: Overcoming Detector Failures in Online Multi-Object Tracking [15.533652456081374]
マルチオブジェクト追跡(MOT)は、時間とともに複数のオブジェクトのアイデンティティと位置を正確に推定する。
現代の検出器は、あるフレーム内のいくつかのオブジェクトを見逃すことがあるため、トラッカーは早めに追跡をやめる。
オンラインTbDシステムと互換性のある汎用フレームワークであるBUSCAを提案する。
論文 参考訳(メタデータ) (2024-07-14T10:45:12Z) - OmniTracker: Unifying Object Tracking by Tracking-with-Detection [119.51012668709502]
OmniTrackerは、完全に共有されたネットワークアーキテクチャ、モデルウェイト、推論パイプラインですべてのトラッキングタスクを解決するために提供されている。
LaSOT、TrackingNet、DAVIS16-17、MOT17、MOTS20、YTVIS19を含む7つの追跡データセットの実験は、OmniTrackerがタスク固有の追跡モデルと統合された追跡モデルの両方よりも、オンパーまたはそれ以上の結果を達成することを示した。
論文 参考訳(メタデータ) (2023-03-21T17:59:57Z) - DIVOTrack: A Novel Dataset and Baseline Method for Cross-View
Multi-Object Tracking in DIVerse Open Scenes [74.64897845999677]
歩行者が密集したDIVerse Openのシーンを対象とした,新しいクロスビュー多目的追跡データセットを提案する。
私たちのDIVOTrackには15の異なるシナリオと953のクロスビュートラックがあります。
さらに,クロスモット(CrossMOT)という統合型共同検出・クロスビュートラッキングフレームワークを用いた新しいベースラインクロスビュートラッキング手法を提案する。
論文 参考訳(メタデータ) (2023-02-15T14:10:42Z) - CXTrack: Improving 3D Point Cloud Tracking with Contextual Information [59.55870742072618]
3Dオブジェクトトラッキングは、自律運転など、多くのアプリケーションにおいて重要な役割を果たす。
CXTrackは3次元オブジェクト追跡のためのトランスフォーマーベースのネットワークである。
CXTrackは29FPSで動作しながら最先端のトラッキング性能を実現する。
論文 参考訳(メタデータ) (2022-11-12T11:29:01Z) - Unified Transformer Tracker for Object Tracking [58.65901124158068]
異なるシナリオにおけるトラッキング問題に1つのパラダイムで対処するために,UTT(Unified Transformer Tracker)を提案する。
SOT(Single Object Tracking)とMOT(Multiple Object Tracking)の両方を対象とするトラックトランスフォーマーを開発した。
論文 参考訳(メタデータ) (2022-03-29T01:38:49Z) - A Discriminative Single-Shot Segmentation Network for Visual Object
Tracking [13.375369415113534]
本稿では,識別可能な単発セグメンテーショントラッカーD3S2を提案する。
単ショットネットワークは、相補的な幾何学的性質を持つ2つのターゲットモデルを適用する。
D3S2はビデオオブジェクトセグメンテーションベンチマークでリードセグメンテーショントラッカーのSiamMaskを上回っている。
論文 参考訳(メタデータ) (2021-12-22T12:48:51Z) - TrackFormer: Multi-Object Tracking with Transformers [92.25832593088421]
TrackFormerはエンコーダデコーダトランスフォーマーアーキテクチャに基づくエンドツーエンドのマルチオブジェクトトラッキングおよびセグメンテーションモデルです。
新しいトラッククエリはDETRオブジェクト検出器によって生成され、時間とともに対応するオブジェクトの位置を埋め込む。
trackformerは新しいトラッキング・バイ・アテンションパラダイムでフレーム間のシームレスなデータ関連付けを実現する。
論文 参考訳(メタデータ) (2021-01-07T18:59:29Z) - Probabilistic 3D Multi-Modal, Multi-Object Tracking for Autonomous
Driving [22.693895321632507]
異なる訓練可能なモジュールからなる確率的、マルチモーダル、マルチオブジェクトトラッキングシステムを提案する。
本手法はNuScenes Trackingデータセットの現在の状態を上回っていることを示した。
論文 参考訳(メタデータ) (2020-12-26T15:00:54Z) - SMOT: Single-Shot Multi Object Tracking [39.34493475666044]
シングルショットマルチオブジェクトトラッカー(SMOT)は、任意のシングルショット検出器(SSD)モデルをオンラインマルチオブジェクトトラッカーに変換する新しいトラッキングフレームワークである。
Hannah、Music Videos、MOT17の3つのオブジェクトトラッキングのベンチマークにおいて、提案されたSMOTは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-10-30T02:46:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。