論文の概要: SAM2MOT: A Novel Paradigm of Multi-Object Tracking by Segmentation
- arxiv url: http://arxiv.org/abs/2504.04519v2
- Date: Wed, 16 Apr 2025 10:49:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-17 14:36:33.878847
- Title: SAM2MOT: A Novel Paradigm of Multi-Object Tracking by Segmentation
- Title(参考訳): SAM2MOT:セグメンテーションによる多対象追跡の新しいパラダイム
- Authors: Junjie Jiang, Zelin Wang, Manqi Zhao, Yin Li, DongSheng Jiang,
- Abstract要約: Segment Anything 2 (SAM2)は、セグメンテーションを使った堅牢な単一オブジェクト追跡を可能にする。
本稿では,多目的追跡のための新しいトラッキング・バイ・パラダイムであるSAM2MOTを提案する。
SAM2MOTはセグメンテーションマスクから直接トラッキングボックスを生成し、検出精度への依存を減らす。
- 参考スコア(独自算出の注目度): 11.1906749425206
- License:
- Abstract: Segment Anything 2 (SAM2) enables robust single-object tracking using segmentation. To extend this to multi-object tracking (MOT), we propose SAM2MOT, introducing a novel Tracking by Segmentation paradigm. Unlike Tracking by Detection or Tracking by Query, SAM2MOT directly generates tracking boxes from segmentation masks, reducing reliance on detection accuracy. SAM2MOT has two key advantages: zero-shot generalization, allowing it to work across datasets without fine-tuning, and strong object association, inherited from SAM2. To further improve performance, we integrate a trajectory manager system for precise object addition and removal, and a cross-object interaction module to handle occlusions. Experiments on DanceTrack, UAVDT, and BDD100K show state-of-the-art results. Notably, SAM2MOT outperforms existing methods on DanceTrack by +2.1 HOTA and +4.5 IDF1, highlighting its effectiveness in MOT. Code is available at https://github.com/TripleJoy/SAM2MOT.
- Abstract(参考訳): Segment Anything 2 (SAM2)は、セグメンテーションを使った堅牢な単一オブジェクト追跡を可能にする。
これをマルチオブジェクトトラッキング(MOT)に拡張するために,SAM2MOTを提案する。
Tracking by DetectionやTracking by Queryとは異なり、SAM2MOTはセグメンテーションマスクから直接トラッキングボックスを生成し、検出精度への依存を減らす。
SAM2MOTには、ゼロショットの一般化という2つの大きな利点がある。
さらに,正確なオブジェクトの追加・削除のためのトラジェクティブ・マネージャ・システムと,オクルージョンを処理するクロスオブジェクト・インタラクション・モジュールを統合した。
DanceTrack、UAVDT、BDD100Kの実験は、最先端の結果を示している。
特にSAM2MOTはDanceTrackの既存の手法を+2.1 HOTAと+4.5 IDF1で上回り、MOTの有効性を強調している。
コードはhttps://github.com/TripleJoy/SAM2MOT.comで入手できる。
関連論文リスト
- IMM-MOT: A Novel 3D Multi-object Tracking Framework with Interacting Multiple Model Filter [10.669576499007139]
3D Multi-Object Tracking (MOT) は周囲の物体の軌跡を提供する。
トラッキング・バイ・ディテククションフレームワークに基づく既存の3D MOTメソッドは、通常、オブジェクトを追跡するために単一のモーションモデルを使用する。
IMM-MOTにおける干渉多重モデルフィルタを導入し、個々の物体の複雑な動きパターンを正確にマッチングする。
論文 参考訳(メタデータ) (2025-02-13T01:55:32Z) - Segment and Track Anything [57.20918630166862]
本報告ではSegment And Track Anything(SAMTrack)というフレームワークについて述べる。
SAM-Trackを使えば、ビデオ内の任意のオブジェクトを正確かつ効果的にセグメンテーションし、追跡することができる。
ドローン技術、自動運転、医療画像、拡張現実、生物学的分析など、さまざまな分野に応用することができる。
論文 参考訳(メタデータ) (2023-05-11T04:33:08Z) - You Only Need Two Detectors to Achieve Multi-Modal 3D Multi-Object Tracking [9.20064374262956]
提案手法は,2次元検出器と3次元検出器のみを用いて,ロバストなトラッキングを実現する。
多くの最先端のTBDベースのマルチモーダルトラッキング手法よりも正確であることが証明されている。
論文 参考訳(メタデータ) (2023-04-18T02:45:18Z) - OmniTracker: Unifying Object Tracking by Tracking-with-Detection [119.51012668709502]
OmniTrackerは、完全に共有されたネットワークアーキテクチャ、モデルウェイト、推論パイプラインですべてのトラッキングタスクを解決するために提供されている。
LaSOT、TrackingNet、DAVIS16-17、MOT17、MOTS20、YTVIS19を含む7つの追跡データセットの実験は、OmniTrackerがタスク固有の追跡モデルと統合された追跡モデルの両方よりも、オンパーまたはそれ以上の結果を達成することを示した。
論文 参考訳(メタデータ) (2023-03-21T17:59:57Z) - SMILEtrack: SiMIlarity LEarning for Occlusion-Aware Multiple Object
Tracking [20.286114226299237]
本稿では,SLM(Siamese Network-based similarity Learning Module)を用いたオブジェクトトラッカーSMILEtrackを紹介する。
SLMは2つのオブジェクト間の外観類似性を計算し、分離検出および埋め込みモデルにおける特徴記述子の制限を克服する。
第2に、連続するビデオフレーム間の堅牢なオブジェクトマッチングのための新しいGATE関数を備えた類似マッチングカスケード(SMC)モジュールを開発する。
論文 参考訳(メタデータ) (2022-11-16T10:49:48Z) - End-to-end Tracking with a Multi-query Transformer [96.13468602635082]
マルチオブジェクトトラッキング(MOT)は、時間とともにシーン内のオブジェクトの位置、外観、アイデンティティを同時に推論する必要がある課題である。
本研究の目的は、トラッキング・バイ・ディテクト・アプローチを超えて、未知のオブジェクト・クラスに対してもよく機能するクラスに依存しないトラッキングへと移行することである。
論文 参考訳(メタデータ) (2022-10-26T10:19:37Z) - Unified Transformer Tracker for Object Tracking [58.65901124158068]
異なるシナリオにおけるトラッキング問題に1つのパラダイムで対処するために,UTT(Unified Transformer Tracker)を提案する。
SOT(Single Object Tracking)とMOT(Multiple Object Tracking)の両方を対象とするトラックトランスフォーマーを開発した。
論文 参考訳(メタデータ) (2022-03-29T01:38:49Z) - Track to Detect and Segment: An Online Multi-Object Tracker [81.15608245513208]
TraDeSは、エンドツーエンドの検出を支援するために追跡の手がかりを利用するオンライン共同検出および追跡モデルです。
TraDeSは、以前のオブジェクトの機能を伝播するために使用されるコストボリュームでオブジェクト追跡オフセットを推測します。
論文 参考訳(メタデータ) (2021-03-16T02:34:06Z) - Simultaneous Detection and Tracking with Motion Modelling for Multiple
Object Tracking [94.24393546459424]
本稿では,複数の物体の運動パラメータを推定し,共同検出と関連付けを行うディープ・モーション・モデリング・ネットワーク(DMM-Net)を提案する。
DMM-Netは、人気の高いUA-DETRACチャレンジで12.80 @120+ fpsのPR-MOTAスコアを達成した。
また,車両追跡のための大規模な公開データセットOmni-MOTを合成し,精密な接地トルースアノテーションを提供する。
論文 参考訳(メタデータ) (2020-08-20T08:05:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。