論文の概要: SAM3-DMS: Decoupled Memory Selection for Multi-target Video Segmentation of SAM3
- arxiv url: http://arxiv.org/abs/2601.09699v1
- Date: Wed, 14 Jan 2026 18:52:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.510448
- Title: SAM3-DMS: Decoupled Memory Selection for Multi-target Video Segmentation of SAM3
- Title(参考訳): SAM3-DMS:SAM3のマルチターゲットビデオセグメンテーションのための分離メモリ選択
- Authors: Ruiqi Shen, Chang Liu, Henghui Ding,
- Abstract要約: Segment Anything 3 (SAM3)は、ビデオ内の特定のターゲットを堅牢に検出、セグメント、追跡する強力な基盤を確立している。
本研究では,個々のオブジェクトのメモリ選択を微粒化することで,学習不要な分離戦略であるSAM3-DMSを提案する。
- 参考スコア(独自算出の注目度): 46.0193087664104
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Segment Anything 3 (SAM3) has established a powerful foundation that robustly detects, segments, and tracks specified targets in videos. However, in its original implementation, its group-level collective memory selection is suboptimal for complex multi-object scenarios, as it employs a synchronized decision across all concurrent targets conditioned on their average performance, often overlooking individual reliability. To this end, we propose SAM3-DMS, a training-free decoupled strategy that utilizes fine-grained memory selection on individual objects. Experiments demonstrate that our approach achieves robust identity preservation and tracking stability. Notably, our advantage becomes more pronounced with increased target density, establishing a solid foundation for simultaneous multi-target video segmentation in the wild.
- Abstract(参考訳): Segment Anything 3 (SAM3)は、ビデオ内の特定のターゲットを堅牢に検出、セグメント、追跡する強力な基盤を確立している。
しかし、その当初の実装では、グループレベルの集団メモリ選択は、個々の信頼性を見落とし、平均的なパフォーマンスで条件付けられた全ての同時ターゲットを同時に決定するため、複雑なマルチオブジェクトシナリオに最適である。
そこで本研究では,個々のオブジェクトのメモリ選択を微粒化することで,学習不要な分離戦略であるSAM3-DMSを提案する。
実験により,本手法が堅牢なアイデンティティ保存と追跡安定性を実現することを示す。
特に、ターゲット密度の増大に伴い、我々の優位性はより顕著になり、野生におけるマルチターゲットビデオの同時セグメンテーションのための確かな基盤が確立される。
関連論文リスト
- MIQ-SAM3D: From Single-Point Prompt to Multi-Instance Segmentation via Competitive Query Refinement [0.328418927821443]
競合クエリ最適化戦略を備えたマルチインスタンス3DセグメンテーションフレームワークMIQ-SAM3Dを提案する。
プロンプト条件のインスタンスクエリジェネレータは、単一ポイントプロンプトを複数の特別なクエリに変換する。
ハイブリッドCNNトランスフォーマーエンコーダは、空間ゲーティングを介して、CNN由来の境界塩分をViT自己注意に注入する。
競合的に最適化されたクエリデコーダは、エンドツーエンド、並列、マルチインスタンスの予測を可能にする。
論文 参考訳(メタデータ) (2025-11-03T08:48:28Z) - SAMSON: 3rd Place Solution of LSVOS 2025 VOS Challenge [9.131199997701282]
大規模なビデオオブジェクトモジュール(LSVOS)は、長いビデオシーケンスにおけるオブジェクトの正確な追跡とセグメンテーションという課題に対処する。
テストセットリーダーボードにおけるJ&Fの最終的な性能は0.8427であった。
論文 参考訳(メタデータ) (2025-09-22T08:30:34Z) - HQ-SMem: Video Segmentation and Tracking Using Memory Efficient Object Embedding With Selective Update and Self-Supervised Distillation Feedback [0.0]
本稿では,高画質ビデオセグメンテーションとスマートメモリを用いたトラッキングのためのHQ-SMemを紹介する。
提案手法には, SAMと高品質マスク(SAM-HQ)を併用して, 粗いセグメンテーションマスクを改良し, オブジェクト境界を改良する, (ii) 冗長なキーフレームを廃棄しながら, 関連キーフレームを選択的に格納する動的スマートメモリ機構を実装し, (iii) 複雑なトポロジ的オブジェクトの変動を効果的に処理し, ビデオ全体のドリフトを低減するための外観モデルを動的に更新する,という3つの重要なイノベーションが含まれている。
論文 参考訳(メタデータ) (2025-07-25T03:28:05Z) - SAM2Long: Enhancing SAM 2 for Long Video Segmentation with a Training-Free Memory Tree [79.26409013413003]
SAM2Longは、トレーニング不要のビデオオブジェクトセグメンテーションを改良した手法である。
各フレーム内のセグメンテーションの不確実性を考慮し、複数のセグメンテーション経路からビデオレベルの最適結果を選択する。
SAM2Longは、24の頭対頭比較で平均3.0点の改善を実現している。
論文 参考訳(メタデータ) (2024-10-21T17:59:19Z) - VideoSAM: Open-World Video Segmentation [33.09103541421983]
動的環境におけるオブジェクト追跡とセグメンテーションの整合性を改善するために設計された,エンドツーエンドのフレームワークであるVideoSAMを紹介する。
VideoSAMは集約されたバックボーンRADIOを統合し、類似度メトリクスを通じてオブジェクトの関連付けを可能にする。
提案手法は, UVO と BURST のベンチマーク, および RoboTAP のロボットビデオで広範に評価され, 実世界のシナリオにおけるその有効性とロバスト性を示す。
論文 参考訳(メタデータ) (2024-10-11T12:56:32Z) - Segment Anything Meets Point Tracking [116.44931239508578]
本稿では,SAMと長期点追跡を併用した,ポイント中心の対話型ビデオセグメンテーションの新たな手法を提案する。
ゼロショットオープンワールドUnidentified Video Objects(UVO)ベンチマークで直接評価することで,ポイントベーストラッキングのメリットを強調した。
DAVIS, YouTube-VOS, BDD100Kなどの人気ビデオオブジェクトのセグメンテーションと多目的セグメンテーションのベンチマーク実験により, ポイントベースセグメンテーショントラッカーがより優れたゼロショット性能と効率的なインタラクションをもたらすことが示唆された。
論文 参考訳(メタデータ) (2023-07-03T17:58:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。