論文の概要: PatchTrack: Multiple Object Tracking Using Frame Patches
- arxiv url: http://arxiv.org/abs/2201.00080v1
- Date: Sat, 1 Jan 2022 00:16:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-05 02:15:08.655244
- Title: PatchTrack: Multiple Object Tracking Using Frame Patches
- Title(参考訳): PatchTrack: フレームパッチを使った複数オブジェクト追跡
- Authors: Xiaotong Chen, Seyed Mehdi Iranmanesh, Kuo-Chin Lien
- Abstract要約: PatchTrackはトランスフォーマーベースの共同検出・追跡システムで、現在の関心フレームのパッチを用いてトラックを予測します。
我々はMOT16(MOTA 73.71%, IDF1 65.77%)やMOT17(MOTA 73.59%, IDF1 65.23%)を含む最近のMOTベンチマークにおけるPatchTrackの有効性を示す。
- 参考スコア(独自算出の注目度): 4.682271723286086
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Object motion and object appearance are commonly used information in multiple
object tracking (MOT) applications, either for associating detections across
frames in tracking-by-detection methods or direct track predictions for
joint-detection-and-tracking methods. However, not only are these two types of
information often considered separately, but also they do not help optimize the
usage of visual information from the current frame of interest directly. In
this paper, we present PatchTrack, a Transformer-based
joint-detection-and-tracking system that predicts tracks using patches of the
current frame of interest. We use the Kalman filter to predict the locations of
existing tracks in the current frame from the previous frame. Patches cropped
from the predicted bounding boxes are sent to the Transformer decoder to infer
new tracks. By utilizing both object motion and object appearance information
encoded in patches, the proposed method pays more attention to where new tracks
are more likely to occur. We show the effectiveness of PatchTrack on recent MOT
benchmarks, including MOT16 (MOTA 73.71%, IDF1 65.77%) and MOT17 (MOTA 73.59%,
IDF1 65.23%). The results are published on
https://motchallenge.net/method/MOT=4725&chl=10.
- Abstract(参考訳): オブジェクトの動きとオブジェクトの外観は、複数のオブジェクト追跡(MOT)アプリケーションで一般的に使用される情報であり、トラッキング・バイ・検出法におけるフレーム間の検出の関連付けや、共同検出・追跡法の直接トラック予測に使用される。
しかし、これら2つの情報はしばしば別々に検討されるだけでなく、現在の関心フレームから直接の視覚情報の利用を最適化する助けにもならない。
本稿では,現行のフレームのパッチを用いてトラックを予測できる変圧器を用いたジョイント・アンド・トラッキングシステムであるpatchtrackを提案する。
我々はKalmanフィルタを用いて、現在のフレーム内の既存のトラックの位置を前フレームから予測する。
予測された境界ボックスから切り出されたパッチはトランスデコーダに送られ、新しいトラックを推測する。
パッチにエンコードされたオブジェクトの動きとオブジェクトの出現情報の両方を利用することで,提案手法は,新しいトラックの発生可能性の高まりに注意を払う。
我々はMOT16 (MOTA 73.71%, IDF1 65.77%) やMOT17 (MOTA 73.59%, IDF1 65.23%) を含む最近のMOTベンチマークにおけるPatchTrackの有効性を示す。
結果はhttps://motchallenge.net/method/mot=4725&chl=10で公開される。
関連論文リスト
- STTracker: Spatio-Temporal Tracker for 3D Single Object Tracking [11.901758708579642]
ポイントクラウドによる3Dオブジェクトのトラッキングは、3Dコンピュータビジョンにおいて重要なタスクである。
以前の方法は、通常、最後の2つのフレームを入力し、前のフレームのテンプレートポイントクラウドと現在のフレームの検索エリアポイントクラウドを使用する。
論文 参考訳(メタデータ) (2023-06-30T07:25:11Z) - TrajectoryFormer: 3D Object Tracking Transformer with Predictive
Trajectory Hypotheses [51.60422927416087]
3Dマルチオブジェクトトラッキング(MOT)は、自律走行車やサービスロボットを含む多くのアプリケーションにとって不可欠である。
本稿では,新しいポイントクラウドベースの3DMOTフレームワークであるTrjectoryFormerを紹介する。
論文 参考訳(メタデータ) (2023-06-09T13:31:50Z) - TopTrack: Tracking Objects By Their Top [13.020122353444497]
TopTrackは、オブジェクトの上部を中心ではなくキーポイントとして使用する、共同検出と追跡の手法である。
我々は,検出のキーポイントとしてオブジェクトトップを使用することで,検出ミスの量を削減できることを示す実験を行った。
論文 参考訳(メタデータ) (2023-04-12T19:00:12Z) - Tracking by Associating Clips [110.08925274049409]
本稿では,オブジェクト関連をクリップワイドマッチングとして扱う方法を検討する。
我々の新しい視点では、1つの長いビデオシーケンスを複数のショートクリップとみなし、そのトラックはクリップ内とクリップ間の両方で実行される。
この新しい手法の利点は2つある。まず、ビデオチャンキングによって中断フレームをバイパスできるため、エラーの蓄積や伝播の追跡に頑健である。
次に、クリップワイドマッチング中に複数のフレーム情報を集約し、現在のフレームワイドマッチングよりも高精度な長距離トラックアソシエーションを実現する。
論文 参考訳(メタデータ) (2022-12-20T10:33:17Z) - Real-time Online Multi-Object Tracking in Compressed Domain [66.40326768209]
近年,Multi-Object Tracking (MOT) 手法が望まれるトラッキング性能を実現している。
隣接するフレームが極めて関連性が高く冗長であるという事実に着想を得て、フレームをキーフレームと非キーフレームに分割する。
私たちのトラッカーは、同等のトラッカー性能を維持しながら、約6倍高速です。
論文 参考訳(メタデータ) (2022-04-05T09:47:24Z) - ByteTrack: Multi-Object Tracking by Associating Every Detection Box [51.93588012109943]
マルチオブジェクトトラッキング(MOT)は、ビデオ内のオブジェクトのバウンディングボックスとIDを推定することを目的としている。
ほとんどの方法は、スコアがしきい値よりも高い検出ボックスを連想させることでアイデンティティを得る。
本稿では,BYTEと呼ばれるシンプルで効果的で汎用的なアソシエーション手法を提案する。
論文 参考訳(メタデータ) (2021-10-13T17:01:26Z) - TrackFormer: Multi-Object Tracking with Transformers [92.25832593088421]
TrackFormerはエンコーダデコーダトランスフォーマーアーキテクチャに基づくエンドツーエンドのマルチオブジェクトトラッキングおよびセグメンテーションモデルです。
新しいトラッククエリはDETRオブジェクト検出器によって生成され、時間とともに対応するオブジェクトの位置を埋め込む。
trackformerは新しいトラッキング・バイ・アテンションパラダイムでフレーム間のシームレスなデータ関連付けを実現する。
論文 参考訳(メタデータ) (2021-01-07T18:59:29Z) - Probabilistic Tracklet Scoring and Inpainting for Multiple Object
Tracking [83.75789829291475]
本稿では,トラックレット提案の確率的自己回帰運動モデルを提案する。
これは、我々のモデルを訓練して、自然のトラックレットの基盤となる分布を学習することで達成される。
我々の実験は、挑戦的なシーケンスにおける物体の追跡におけるアプローチの優位性を実証している。
論文 参考訳(メタデータ) (2020-12-03T23:59:27Z) - SMOT: Single-Shot Multi Object Tracking [39.34493475666044]
シングルショットマルチオブジェクトトラッカー(SMOT)は、任意のシングルショット検出器(SSD)モデルをオンラインマルチオブジェクトトラッカーに変換する新しいトラッキングフレームワークである。
Hannah、Music Videos、MOT17の3つのオブジェクトトラッキングのベンチマークにおいて、提案されたSMOTは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-10-30T02:46:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。