論文の概要: SeqTrack: Sequence to Sequence Learning for Visual Object Tracking
- arxiv url: http://arxiv.org/abs/2304.14394v1
- Date: Thu, 27 Apr 2023 17:56:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-28 12:06:12.781339
- Title: SeqTrack: Sequence to Sequence Learning for Visual Object Tracking
- Title(参考訳): seqtrack: 視覚オブジェクト追跡のためのシーケンスからシーケンスへの学習
- Authors: Xin Chen, Houwen Peng, Dong Wang, Huchuan Lu, Han Hu
- Abstract要約: 視覚追跡のためのシーケンシャル・ツー・シーケンス学習フレームワークSeqTrackを提案する。
視覚的トラッキングをシーケンス生成問題とみなし、自動回帰的にオブジェクト境界ボックスを予測する。
- 参考スコア(独自算出の注目度): 93.44345575126557
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a new sequence-to-sequence learning framework for
visual tracking, dubbed SeqTrack. It casts visual tracking as a sequence
generation problem, which predicts object bounding boxes in an autoregressive
fashion. This is different from prior Siamese trackers and transformer
trackers, which rely on designing complicated head networks, such as
classification and regression heads. SeqTrack only adopts a simple
encoder-decoder transformer architecture. The encoder extracts visual features
with a bidirectional transformer, while the decoder generates a sequence of
bounding box values autoregressively with a causal transformer. The loss
function is a plain cross-entropy. Such a sequence learning paradigm not only
simplifies tracking framework, but also achieves competitive performance on
benchmarks. For instance, SeqTrack gets 72.5% AUC on LaSOT, establishing a new
state-of-the-art performance. Code and models are available at here.
- Abstract(参考訳): 本稿では,視覚追跡のためのシーケンシャル・ツー・シーケンス学習フレームワークseqtrackを提案する。
視覚追跡をシーケンス生成問題として、自己回帰的な方法でオブジェクトバウンディングボックスを予測する。
従来のシームズトラッカーやトランスフォーマートラッカーとは違い、分類や回帰ヘッドといった複雑なヘッドネットワークの設計に依存している。
seqtrackは単純なエンコーダ-デコーダトランスフォーマアーキテクチャのみを採用している。
エンコーダは双方向変換器で視覚特徴を抽出し、デコーダは因果変換器で自動回帰的に境界ボックス値列を生成する。
損失関数はプレーンなクロスエントロピーである。
このようなシーケンス学習パラダイムは、トラッキングフレームワークを単純化するだけでなく、ベンチマークで競争力のあるパフォーマンスを実現する。
例えば、SeqTrackはLaSOT上で72.5%のAUCを獲得し、新しい最先端のパフォーマンスを確立している。
コードとモデルはここで入手できる。
関連論文リスト
- HSTrack: Bootstrap End-to-End Multi-Camera 3D Multi-object Tracking with Hybrid Supervision [34.7347336548199]
カメラベースの3Dマルチオブジェクトトラッキング(MOT)では、一般的な手法はトラッキング・バイ・クエリー・プロパゲーションのパラダイムに従っている。
本稿では,HSTrackを提案する。HSTrackは,マルチタスク学習を協調して検出・追跡する新しいプラグイン・アンド・プレイ方式である。
論文 参考訳(メタデータ) (2024-11-11T08:18:49Z) - OmniTracker: Unifying Object Tracking by Tracking-with-Detection [119.51012668709502]
OmniTrackerは、完全に共有されたネットワークアーキテクチャ、モデルウェイト、推論パイプラインですべてのトラッキングタスクを解決するために提供されている。
LaSOT、TrackingNet、DAVIS16-17、MOT17、MOTS20、YTVIS19を含む7つの追跡データセットの実験は、OmniTrackerがタスク固有の追跡モデルと統合された追跡モデルの両方よりも、オンパーまたはそれ以上の結果を達成することを示した。
論文 参考訳(メタデータ) (2023-03-21T17:59:57Z) - End-to-end Tracking with a Multi-query Transformer [96.13468602635082]
マルチオブジェクトトラッキング(MOT)は、時間とともにシーン内のオブジェクトの位置、外観、アイデンティティを同時に推論する必要がある課題である。
本研究の目的は、トラッキング・バイ・ディテクト・アプローチを超えて、未知のオブジェクト・クラスに対してもよく機能するクラスに依存しないトラッキングへと移行することである。
論文 参考訳(メタデータ) (2022-10-26T10:19:37Z) - Unified Transformer Tracker for Object Tracking [58.65901124158068]
異なるシナリオにおけるトラッキング問題に1つのパラダイムで対処するために,UTT(Unified Transformer Tracker)を提案する。
SOT(Single Object Tracking)とMOT(Multiple Object Tracking)の両方を対象とするトラックトランスフォーマーを開発した。
論文 参考訳(メタデータ) (2022-03-29T01:38:49Z) - TrackFormer: Multi-Object Tracking with Transformers [92.25832593088421]
TrackFormerはエンコーダデコーダトランスフォーマーアーキテクチャに基づくエンドツーエンドのマルチオブジェクトトラッキングおよびセグメンテーションモデルです。
新しいトラッククエリはDETRオブジェクト検出器によって生成され、時間とともに対応するオブジェクトの位置を埋め込む。
trackformerは新しいトラッキング・バイ・アテンションパラダイムでフレーム間のシームレスなデータ関連付けを実現する。
論文 参考訳(メタデータ) (2021-01-07T18:59:29Z) - Chained-Tracker: Chaining Paired Attentive Regression Results for
End-to-End Joint Multiple-Object Detection and Tracking [102.31092931373232]
そこで我々は,3つのサブタスク全てをエンド・ツー・エンドのソリューションに統合する簡単なオンラインモデルである Chained-Tracker (CTracker) を提案する。
鎖状構造と対の注意的回帰という2つの大きな特徴は、CTrackerをシンプルに、速く、効果的にする。
論文 参考訳(メタデータ) (2020-07-29T02:38:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。