論文の概要: A Deep Dive into Generic Object Tracking: A Survey
- arxiv url: http://arxiv.org/abs/2507.23251v1
- Date: Thu, 31 Jul 2025 05:19:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-01 17:19:09.112158
- Title: A Deep Dive into Generic Object Tracking: A Survey
- Title(参考訳): ジェネリックオブジェクト追跡のディープディーブ:サーベイ
- Authors: Fereshteh Aghaee Meibodi, Shadi Alijani, Homayoun Najjaran,
- Abstract要約: オブジェクト追跡は、複雑な時間的ダイナミクスのため、コンピュータビジョンにおいて依然として重要な課題である。
これらの課題に対処するために、シームズベースのトラッカー、識別トラッカー、トランスフォーマーベースのアプローチが導入された。
- 参考スコア(独自算出の注目度): 3.7305040207339286
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Generic object tracking remains an important yet challenging task in computer vision due to complex spatio-temporal dynamics, especially in the presence of occlusions, similar distractors, and appearance variations. Over the past two decades, a wide range of tracking paradigms, including Siamese-based trackers, discriminative trackers, and, more recently, prominent transformer-based approaches, have been introduced to address these challenges. While a few existing survey papers in this field have either concentrated on a single category or widely covered multiple ones to capture progress, our paper presents a comprehensive review of all three categories, with particular emphasis on the rapidly evolving transformer-based methods. We analyze the core design principles, innovations, and limitations of each approach through both qualitative and quantitative comparisons. Our study introduces a novel categorization and offers a unified visual and tabular comparison of representative methods. Additionally, we organize existing trackers from multiple perspectives and summarize the major evaluation benchmarks, highlighting the fast-paced advancements in transformer-based tracking driven by their robust spatio-temporal modeling capabilities.
- Abstract(参考訳): ジェネリックオブジェクトトラッキングは、複雑な時空間力学、特に閉塞、類似の注意散らし、外見の変化があるため、コンピュータビジョンにおいて重要な課題であり続けている。
過去20年間で、シームズベースのトラッカー、差別的トラッカー、さらに最近では、トランスフォーマーベースのアプローチを含む幅広い追跡パラダイムが導入され、これらの課題に対処している。
この分野のいくつかの既存調査論文は、進展を捉えるために1つのカテゴリに焦点を絞っているか、あるいは複数のカテゴリを幅広くカバーしているかのどちらかであるが、本論文では、急速に進化するトランスフォーマーベースの手法を中心に、これら3つのカテゴリの総合的なレビューを行っている。
質的かつ定量的な比較を通じて、各アプローチの中核となる設計原則、革新、限界を分析します。
本研究は,新しい分類法を導入し,代表手法の視覚的および表的比較を統一的に提供する。
さらに、複数の視点から既存のトラッカーを整理し、主要な評価ベンチマークを要約し、頑健な時空間モデリング機能によって駆動されるトランスフォーマーベースのトラッキングの急速な進歩を強調した。
関連論文リスト
- IP-MOT: Instance Prompt Learning for Cross-Domain Multi-Object Tracking [13.977088329815933]
マルチオブジェクト追跡(MOT)は、ビデオフレーム間で複数のオブジェクトを関連付けることを目的としている。
既存のアプローチのほとんどは単一のドメイン内でトレーニングと追跡を行っており、結果としてドメイン間の一般化性が欠如している。
我々は,具体的テキスト記述なしで動作可能なMOTのエンドツーエンドトランスフォーマモデルであるIP-MOTを開発した。
論文 参考訳(メタデータ) (2024-10-30T14:24:56Z) - Beyond Traditional Single Object Tracking: A Survey [0.0]
我々は、シーケンスモデル、生成モデル、自己教師付き学習、教師なし学習、強化学習、メタラーニング、継続学習、ドメイン適応など、視覚における最先端技術を紹介します。
本稿では,新しい手法とトレンドに基づく単一物体追跡手法の新たな分類法を提案する。
提案手法の長所と短所を解析し, 単体追跡における非従来手法の指針を示す。
論文 参考訳(メタデータ) (2024-05-16T20:55:31Z) - Deep Learning-Based Object Pose Estimation: A Comprehensive Survey [73.74933379151419]
ディープラーニングに基づくオブジェクトポーズ推定の最近の進歩について論じる。
また、複数の入力データモダリティ、出力ポーズの自由度、オブジェクト特性、下流タスクについても調査した。
論文 参考訳(メタデータ) (2024-05-13T14:44:22Z) - Transformers in Single Object Tracking: An Experimental Survey [1.2526963688768458]
トランスフォーマーベースのトラッキングアプローチは、単一対象追跡の新しい時代を幕開けた。
我々は、CNN-Transformerベースのトラッカー、2ストリームフルトランスフォーマーベースのトラッカー、ワンストリームワンステージフルトランスフォーマーベースのトラッカーに分類することで、トランスフォーマートラッキングアプローチの詳細な文献分析を行う。
論文 参考訳(メタデータ) (2023-02-23T09:12:58Z) - End-to-end Tracking with a Multi-query Transformer [96.13468602635082]
マルチオブジェクトトラッキング(MOT)は、時間とともにシーン内のオブジェクトの位置、外観、アイデンティティを同時に推論する必要がある課題である。
本研究の目的は、トラッキング・バイ・ディテクト・アプローチを超えて、未知のオブジェクト・クラスに対してもよく機能するクラスに依存しないトラッキングへと移行することである。
論文 参考訳(メタデータ) (2022-10-26T10:19:37Z) - Visual Tracking by TridentAlign and Context Embedding [71.60159881028432]
本稿では,Siamese ネットワークに基づく視覚的トラッキングのための新しい TridentAlign とコンテキスト埋め込みモジュールを提案する。
提案トラッカーの性能は最先端トラッカーに匹敵するが,提案トラッカーはリアルタイムに動作可能である。
論文 参考訳(メタデータ) (2020-07-14T08:00:26Z) - TAO: A Large-Scale Benchmark for Tracking Any Object [95.87310116010185]
オブジェクトのデータセットの追跡は2,907本の高解像度ビデオで構成され、平均で30分の長さの多様な環境でキャプチャされる。
ビデオの任意の時点で移動するオブジェクトにアノテータにラベルを付け、ファクトラムの後に名前を付けるように求めます。
我々の語彙は、既存の追跡データセットと著しく大きく、質的に異なる。
論文 参考訳(メタデータ) (2020-05-20T21:07:28Z) - MOPT: Multi-Object Panoptic Tracking [33.77171216778909]
マルチオブジェクト・パノプティブ・トラッキング(MOPT)と呼ばれる新しい知覚タスクを導入する。
MOPTは、時間とともに、"thing"クラスと"stuff"クラスのピクセルレベルのセマンティック情報、時間的コヒーレンス、ピクセルレベルの関連を活用できる。
視覚ベースとLiDARベースのMOPTの定量的,定性的な評価を行い,その効果を実証した。
論文 参考訳(メタデータ) (2020-04-17T11:45:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。