論文の概要: Benchmarking SAM2-based Trackers on FMOX
- arxiv url: http://arxiv.org/abs/2512.09633v1
- Date: Wed, 10 Dec 2025 13:21:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.533588
- Title: Benchmarking SAM2-based Trackers on FMOX
- Title(参考訳): FMOX上のSAM2ベースのトラッカーのベンチマーク
- Authors: Senem Aktas, Charles Markham, John McDonald, Rozenn Dahyot,
- Abstract要約: 高速移動物体(FMO)を含むデータセット上で,高性能トラッカー(SAM2,EfficientTAM,DAM4SAM,SAmuraI)のベンチマークを行う。
トラッカーのDAM4SAMとSAmuraIは、より困難なシーケンスでうまく機能する。
- 参考スコア(独自算出の注目度): 1.5866079116942815
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Several object tracking pipelines extending Segment Anything Model 2 (SAM2) have been proposed in the past year, where the approach is to follow and segment the object from a single exemplar template provided by the user on a initialization frame. We propose to benchmark these high performing trackers (SAM2, EfficientTAM, DAM4SAM and SAMURAI) on datasets containing fast moving objects (FMO) specifically designed to be challenging for tracking approaches. The goal is to understand better current limitations in state-of-the-art trackers by providing more detailed insights on the behavior of these trackers. We show that overall the trackers DAM4SAM and SAMURAI perform well on more challenging sequences.
- Abstract(参考訳): Segment Anything Model 2 (SAM2) を拡張するいくつかのオブジェクト追跡パイプラインが昨年提案されている。
本稿では,高速移動物体(FMO)を含むデータセットに対して,これらのハイパフォーマンストラッカー(SAM2,EfficientTAM,DAM4SAM,SAmuraI)をベンチマークする。
目標は、これらのトラッカーの挙動に関するより詳細な洞察を提供することで、最先端トラッカーの現在の限界を理解することである。
トラッカーのDAM4SAMとSAmuraIは、より困難なシーケンスで良好に動作することを示す。
関連論文リスト
- SAM 2++: Tracking Anything at Any Granularity [47.958995827908105]
SAM 2++は、マスク、ボックス、ポイントなど、どんな粒度でも追跡できる統一モデルです。
ターゲットの粒度を拡大するため、タスク固有のプロンプトを設計し、様々なタスク入力を一般的なプロンプト埋め込みにエンコードする。
メモリ整合性を満たすために,異なる粒度のメモリを統一するタスク適応型メモリ機構を導入する。
論文 参考訳(メタデータ) (2025-10-21T17:20:15Z) - Distractor-Aware Memory-Based Visual Object Tracking [17.945503249662675]
本稿では,SAM2のイントロスペクションに基づくメモリモジュールとイントロスペクション・ベースの管理手法を提案する。
本設計は, 物体閉塞後のトラクションドリフトを効果的に低減し, 再検出能力を向上させる。
13のベンチマークで、DAM4SAMはSAM2.1より優れており、10に新しい最先端結果が設定されている。
論文 参考訳(メタデータ) (2025-09-17T09:54:27Z) - SAMITE: Position Prompted SAM2 with Calibrated Memory for Visual Object Tracking [58.35852822355312]
Visual Object Tracking (VOT)は、ビデオ内のターゲットを継続的に追跡する自律運転のようなアプリケーションで広く使われている。
これらの問題に対処するために、ビデオ基盤モデルSAM2をVOTに適用し、各フレームの追跡結果をメモリとして符号化し、残りのフレームを自己回帰的に条件付けする手法を提案する。
これらの課題に対処するために,SAM2 上にモジュールを追加して構築した SAMITE モデルを提案する。
論文 参考訳(メタデータ) (2025-07-29T12:11:56Z) - SAM2MOT: A Novel Paradigm of Multi-Object Tracking by Segmentation [11.1906749425206]
Segment Anything 2 (SAM2)は、セグメンテーションを使った堅牢な単一オブジェクト追跡を可能にする。
本稿では,多目的追跡のための新しいトラッキング・バイ・パラダイムであるSAM2MOTを提案する。
SAM2MOTはセグメンテーションマスクから直接トラッキングボックスを生成し、検出精度への依存を減らす。
論文 参考訳(メタデータ) (2025-04-06T15:32:08Z) - Underwater Camouflaged Object Tracking Meets Vision-Language SAM2 [60.47622353256502]
本研究は,UW-COT220という大規模水中カモフラージュ型物体追跡データセットを提案する。
提案したデータセットに基づいて、本研究はまず、水中環境に挑戦するSAMとSAM2ベースのトラッカーを含む、現在の高度な視覚オブジェクト追跡手法を評価する。
本研究はSAM2よりもSAM2を改良し,水中カモフラージュ物体の複雑度を処理できることを実証した。
論文 参考訳(メタデータ) (2024-09-25T13:10:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。