論文の概要: TransFiner: A Full-Scale Refinement Approach for Multiple Object
Tracking
- arxiv url: http://arxiv.org/abs/2207.12967v1
- Date: Tue, 26 Jul 2022 15:21:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-27 13:00:55.459448
- Title: TransFiner: A Full-Scale Refinement Approach for Multiple Object
Tracking
- Title(参考訳): TransFiner: マルチオブジェクト追跡のためのフルスケールリファインメントアプローチ
- Authors: Bin Sun and Jiale Cao
- Abstract要約: 複数オブジェクト追跡(Multiple Object Tracking、MOT)は、検出と関連性を含むタスクである。
変換器を用いたMOTのポストリファインメント手法であるTransFinerを提案する。
- 参考スコア(独自算出の注目度): 17.784388121222392
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multiple object tracking (MOT) is the task containing detection and
association. Plenty of trackers have achieved competitive performance.
Unfortunately, for the lack of informative exchange on these subtasks, they are
often biased toward one of the two and remain underperforming in complex
scenarios, such as the expected false negatives and mistaken trajectories of
targets when passing each other. In this paper, we propose TransFiner, a
transformer-based post-refinement approach for MOT. It is a generic attachment
framework that leverages the images and tracking results (locations and class
predictions) from the original tracker as inputs, which are then used to launch
TransFiner powerfully. Moreover, TransFiner depends on query pairs, which
produce pairs of detection and motion through the fusion decoder and achieve
comprehensive tracking improvement. We also provide targeted refinement by
labeling query pairs according to different refinement levels. Experiments show
that our design is effective, on the MOT17 benchmark, we elevate the
CenterTrack from 67.8% MOTA and 64.7% IDF1 to 71.5% MOTA and 66.8% IDF1.
- Abstract(参考訳): 複数のオブジェクト追跡(MOT)は、検出と関連性を含むタスクである。
数多くのトラッカーが競争力を発揮している。
残念ながら、これらのサブタスクに対する情報交換が欠如しているため、それらは2つのうちの1つに偏りがあり、期待される偽陰性や、互いに通過する際にターゲットの軌道を間違えるといった複雑なシナリオでは未然に機能する。
本稿では,MOTのトランスファインダを用いたポストリファインメント手法であるTransFinerを提案する。
これは、元のトラッカーからのイメージと追跡結果(ロケーションとクラス予測)を入力として利用し、TransFinerを強力に起動する一般的なアタッチメントフレームワークである。
さらに、TransFinerはクエリペアに依存し、フュージョンデコーダを通じて検出と動作のペアを生成し、包括的なトラッキング改善を実現する。
また、異なるリファインメントレベルに応じてクエリペアをラベル付けすることで、ターゲットとするリファインメントも提供します。
実験の結果、MOT17ベンチマークでは、CenterTrackは67.8% MOTA、64.7% IDF1から71.5% MOTA、66.8% IDF1に上昇した。
関連論文リスト
- Temporal Correlation Meets Embedding: Towards a 2nd Generation of JDE-based Real-Time Multi-Object Tracking [52.04679257903805]
共同検出・埋め込み(JDE)トラッカーは多目的追跡(MOT)タスクにおいて優れた性能を示した。
TCBTrackという名前のトラッカーは、複数の公開ベンチマークで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-07-19T07:48:45Z) - Separable Self and Mixed Attention Transformers for Efficient Object
Tracking [3.9160947065896803]
本稿では,軽量トラッキングのための自己・混在型アテンショントランスフォーマーアーキテクチャを提案する。
これらの貢献により、提案された軽量トラッカーは、トランスフォーマーベースのバックボーンとヘッドモジュールを、初めて同時にデプロイする。
シミュレーションの結果、SMATはGOT10k、TrackingNet、LaSOT、NfS30、UAV123、AVisTデータセット上の関連する軽量トラッカーのパフォーマンスを上回っている。
論文 参考訳(メタデータ) (2023-09-07T19:23:02Z) - Efficient Joint Detection and Multiple Object Tracking with Spatially
Aware Transformer [0.8808021343665321]
マルチオブジェクト追跡のための軽量かつ高効率な関節検出・追跡パイプラインを提案する。
CNNの代わりにトランスフォーマーベースのバックボーンによって駆動される。
修正の結果、TransTrackの全体的なモデルサイズを58.73%、複雑さを78.72%削減しました。
論文 参考訳(メタデータ) (2022-11-09T07:19:33Z) - Strong-TransCenter: Improved Multi-Object Tracking based on Transformers
with Dense Representations [1.2891210250935146]
TransCenterはトランスフォーマーベースのMOTアーキテクチャで、すべてのオブジェクトを正確に追跡するための高密度なオブジェクトクエリを備えている。
本稿では,トラック・バイ・ディテクト・パラダイムに基づくポスト処理機構を用いたトラッカーの改良について述べる。
新しいトラッカーでは,IDF1とHOTAの指標が大幅に改善され,MOTAの指標に匹敵する結果が得られた。
論文 参考訳(メタデータ) (2022-10-24T19:47:58Z) - Joint Spatial-Temporal and Appearance Modeling with Transformer for
Multiple Object Tracking [59.79252390626194]
本稿ではTransSTAMという新しい手法を提案する。Transformerを利用して各オブジェクトの外観特徴とオブジェクト間の空間的時間的関係の両方をモデル化する。
提案手法はMOT16, MOT17, MOT20を含む複数の公開ベンチマークで評価され, IDF1とHOTAの両方で明確な性能向上を実現している。
論文 参考訳(メタデータ) (2022-05-31T01:19:18Z) - Global Tracking Transformers [76.58184022651596]
グローバル多目的追跡のためのトランスフォーマーに基づく新しいアーキテクチャを提案する。
コアコンポーネントはグローバルなトラッキングトランスフォーマーで、シーケンス内のすべてのフレームからオブジェクトを操作する。
われわれのフレームワークは、最先端の大語彙検出装置にシームレスに統合され、あらゆる物体を追跡できる。
論文 参考訳(メタデータ) (2022-03-24T17:58:04Z) - VariabilityTrack:Multi-Object Tracking with Variable Speed Object
Movement [1.6385815610837167]
マルチオブジェクトトラッキング(MOT)は、ビデオ内のオブジェクトのバウンディングボックスとIDを推定することを目的としている。
環境フィードバックに基づく可変速度カルマンフィルタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-12T12:39:41Z) - ByteTrack: Multi-Object Tracking by Associating Every Detection Box [51.93588012109943]
マルチオブジェクトトラッキング(MOT)は、ビデオ内のオブジェクトのバウンディングボックスとIDを推定することを目的としている。
ほとんどの方法は、スコアがしきい値よりも高い検出ボックスを連想させることでアイデンティティを得る。
本稿では,BYTEと呼ばれるシンプルで効果的で汎用的なアソシエーション手法を提案する。
論文 参考訳(メタデータ) (2021-10-13T17:01:26Z) - Tracklets Predicting Based Adaptive Graph Tracking [51.352829280902114]
マルチオブジェクト追跡,すなわち textbfTPAGT のための,正確かつエンドツーエンドの学習フレームワークを提案する。
動作予測に基づいて、現在のフレーム内のトラックレットの特徴を再抽出する。
論文 参考訳(メタデータ) (2020-10-18T16:16:49Z) - Tracking-by-Counting: Using Network Flows on Crowd Density Maps for
Tracking Multiple Targets [96.98888948518815]
State-of-the-art multi-object tracking(MOT)法は、トラッキング・バイ・検出のパラダイムに従っている。
混み合ったシーンに適したMOTパラダイムであるトラッキング・バイ・カウントを提案する。
論文 参考訳(メタデータ) (2020-07-18T19:51:53Z) - Multiple Object Tracking by Flowing and Fusing [31.58422046611455]
Flow-Fuse-Tracker (FFT) は、画素レベルの光学フローから、目標方向の動きの無期限数を学習する追跡手法である。
ターゲットfusingでは、FuseTrackerモジュールがFlowTrackerとフレームワイドオブジェクト検出によって提案されるターゲットを洗練およびヒューズする。
オンラインMOTアプローチとして、FFTは2DMOT15で46.3、MOT16で56.5、MOT17追跡ベンチマークで56.5のMOTAを作成した。
論文 参考訳(メタデータ) (2020-01-30T05:17:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。