論文の概要: SAM 2++: Tracking Anything at Any Granularity
- arxiv url: http://arxiv.org/abs/2510.18822v1
- Date: Tue, 21 Oct 2025 17:20:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:14.024081
- Title: SAM 2++: Tracking Anything at Any Granularity
- Title(参考訳): SAM 2++:どんな粒度でも追跡できる
- Authors: Jiaming Zhang, Cheng Liang, Yichun Yang, Chenkai Zeng, Yutao Cui, Xinwen Zhang, Xin Zhou, Kai Ma, Gangshan Wu, Limin Wang,
- Abstract要約: SAM 2++は、マスク、ボックス、ポイントなど、どんな粒度でも追跡できる統一モデルです。
ターゲットの粒度を拡大するため、タスク固有のプロンプトを設計し、様々なタスク入力を一般的なプロンプト埋め込みにエンコードする。
メモリ整合性を満たすために,異なる粒度のメモリを統一するタスク適応型メモリ機構を導入する。
- 参考スコア(独自算出の注目度): 47.958995827908105
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Video tracking aims at finding the specific target in subsequent frames given its initial state. Due to the varying granularity of target states across different tasks, most existing trackers are tailored to a single task and heavily rely on custom-designed modules within the individual task, which limits their generalization and leads to redundancy in both model design and parameters. To unify video tracking tasks, we present SAM 2++, a unified model towards tracking at any granularity, including masks, boxes, and points. First, to extend target granularity, we design task-specific prompts to encode various task inputs into general prompt embeddings, and a unified decoder to unify diverse task results into a unified form pre-output. Next, to satisfy memory matching, the core operation of tracking, we introduce a task-adaptive memory mechanism that unifies memory across different granularities. Finally, we introduce a customized data engine to support tracking training at any granularity, producing a large and diverse video tracking dataset with rich annotations at three granularities, termed Tracking-Any-Granularity, which represents a comprehensive resource for training and benchmarking on unified tracking. Comprehensive experiments on multiple benchmarks confirm that SAM 2++ sets a new state of the art across diverse tracking tasks at different granularities, establishing a unified and robust tracking framework.
- Abstract(参考訳): ビデオトラッキングは、初期状態から、後続のフレームで特定のターゲットを見つけることを目的としている。
目標状態の粒度が異なるため、既存のトラッカーは単一のタスクに合わせて調整されており、個々のタスク内のカスタム設計モジュールに大きく依存しているため、一般化が制限され、モデル設計とパラメータの両方に冗長性が生じる。
ビデオトラッキングタスクを統一するために,マスクやボックス,ポイントなど,任意の粒度をトラッキングするための統一モデルであるSAM 2++を提案する。
まず、ターゲットの粒度を拡大するために、様々なタスク入力を一般的なプロンプト埋め込みにエンコードするタスク固有プロンプトと、多様なタスク結果を統一された形式に統一する統合デコーダを設計する。
次に、トラッキングのコア操作であるメモリマッチングを満たすために、異なる粒度にまたがるメモリを統一するタスク適応型メモリ機構を導入する。
最後に、任意の粒度でのトラッキングトレーニングをサポートするようにカスタマイズされたデータエンジンを導入し、3つの粒度でのリッチアノテーションを備えた大規模で多様なビデオトラッキングデータセットを生成します。
複数のベンチマークに関する総合的な実験では、SAM 2++が様々な粒度の様々なトラッキングタスクにまたがって新しい最先端の技術を設定し、統一的で堅牢なトラッキングフレームワークを確立することが確認されている。
関連論文リスト
- History-Aware Transformation of ReID Features for Multiple Object Tracking [17.15627396627977]
本稿では,ReID特徴量に対する履歴認識変換を用いて,より識別的な外観表現を実現することを提案する。
実験の結果,このトレーニングフリープロジェクションにより,機能のみのトラッカーが大幅に向上し,より優れたトラッカー性能が達成できることがわかった。
論文 参考訳(メタデータ) (2025-03-16T16:34:40Z) - Single-Shot and Multi-Shot Feature Learning for Multi-Object Tracking [55.13878429987136]
そこで本研究では,異なる目標に対して,単発と複数発の特徴を共同で学習するための,シンプルで効果的な2段階特徴学習パラダイムを提案する。
提案手法は,DanceTrackデータセットの最先端性能を達成しつつ,MOT17およびMOT20データセットの大幅な改善を実現している。
論文 参考訳(メタデータ) (2023-11-17T08:17:49Z) - OmniTracker: Unifying Object Tracking by Tracking-with-Detection [119.51012668709502]
OmniTrackerは、完全に共有されたネットワークアーキテクチャ、モデルウェイト、推論パイプラインですべてのトラッキングタスクを解決するために提供されている。
LaSOT、TrackingNet、DAVIS16-17、MOT17、MOTS20、YTVIS19を含む7つの追跡データセットの実験は、OmniTrackerがタスク固有の追跡モデルと統合された追跡モデルの両方よりも、オンパーまたはそれ以上の結果を達成することを示した。
論文 参考訳(メタデータ) (2023-03-21T17:59:57Z) - End-to-end Tracking with a Multi-query Transformer [96.13468602635082]
マルチオブジェクトトラッキング(MOT)は、時間とともにシーン内のオブジェクトの位置、外観、アイデンティティを同時に推論する必要がある課題である。
本研究の目的は、トラッキング・バイ・ディテクト・アプローチを超えて、未知のオブジェクト・クラスに対してもよく機能するクラスに依存しないトラッキングへと移行することである。
論文 参考訳(メタデータ) (2022-10-26T10:19:37Z) - Unified Transformer Tracker for Object Tracking [58.65901124158068]
異なるシナリオにおけるトラッキング問題に1つのパラダイムで対処するために,UTT(Unified Transformer Tracker)を提案する。
SOT(Single Object Tracking)とMOT(Multiple Object Tracking)の両方を対象とするトラックトランスフォーマーを開発した。
論文 参考訳(メタデータ) (2022-03-29T01:38:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。