論文の概要: SANSA: Unleashing the Hidden Semantics in SAM2 for Few-Shot Segmentation
- arxiv url: http://arxiv.org/abs/2505.21795v1
- Date: Tue, 27 May 2025 21:51:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.311969
- Title: SANSA: Unleashing the Hidden Semantics in SAM2 for Few-Shot Segmentation
- Title(参考訳): SANSA:SAM2に隠されたセマンティクスを公開
- Authors: Claudia Cuttano, Gabriele Trivigno, Giuseppe Averta, Carlo Masone,
- Abstract要約: ほとんどショットのセグメンテーションは、未確認のオブジェクトカテゴリを、注釈付き例のほんの一握りの例から分割することを目的としている。
本稿では,SANSA (Semantically AligNed Segment Anything 2) を提案する。
- 参考スコア(独自算出の注目度): 4.4700130387278225
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot segmentation aims to segment unseen object categories from just a handful of annotated examples. This requires mechanisms that can both identify semantically related objects across images and accurately produce segmentation masks. We note that Segment Anything 2 (SAM2), with its prompt-and-propagate mechanism, offers both strong segmentation capabilities and a built-in feature matching process. However, we show that its representations are entangled with task-specific cues optimized for object tracking, which impairs its use for tasks requiring higher level semantic understanding. Our key insight is that, despite its class-agnostic pretraining, SAM2 already encodes rich semantic structure in its features. We propose SANSA (Semantically AligNed Segment Anything 2), a framework that makes this latent structure explicit, and repurposes SAM2 for few-shot segmentation through minimal task-specific modifications. SANSA achieves state-of-the-art performance on few-shot segmentation benchmarks specifically designed to assess generalization, outperforms generalist methods in the popular in-context setting, supports various prompts flexible interaction via points, boxes, or scribbles, and remains significantly faster and more compact than prior approaches. Code is available at https://github.com/ClaudiaCuttano/SANSA.
- Abstract(参考訳): ほとんどショットのセグメンテーションは、未確認のオブジェクトカテゴリを、注釈付き例のほんの一握りの例から分割することを目的としている。
これは、画像間で意味的関連オブジェクトを識別し、セグメンテーションマスクを正確に生成するメカニズムを必要とする。
Segment Anything 2 (SAM2)はプロンプト・アンド・プロパゲート機構を備え、強力なセグメンテーション機能とビルトイン機能マッチングプロセスの両方を提供する。
しかし,その表現はオブジェクト追跡に最適化されたタスク固有のキューと絡み合っており,高いレベルのセマンティック理解を必要とするタスクに使用できないことを示す。
私たちの重要な洞察は、クラスに依存しない事前トレーニングにもかかわらず、SAM2は、その機能にすでにリッチなセマンティック構造をエンコードしていることです。
この潜在構造を明示するフレームワークであるSANSA (Semantically AligNed Segment Anything 2) を提案する。
SANSAは、一般化を評価するために特別に設計された数ショットセグメンテーションベンチマークにおける最先端のパフォーマンスを達成し、一般的なインコンテキスト設定におけるジェネリストメソッドよりも優れ、ポイント、ボックス、スクリブルによる様々なプロンプトの柔軟な相互作用をサポートし、以前のアプローチよりもはるかに高速でコンパクトなままである。
コードはhttps://github.com/ClaudiaCuttano/SANSAで入手できる。
関連論文リスト
- DC-SAM: In-Context Segment Anything in Images and Videos via Dual Consistency [91.30252180093333]
In-context segmentation に SAM と SAM2 を適応させるプロンプトチューニングに基づく Dual Consistency SAM (DCSAM) 法を提案する。
我々の重要な洞察は、高品質な視覚的プロンプトを提供することにより、SAMのセグメンテーションにおけるプロンプトエンコーダの機能を強化することである。
提案したDC-SAMは主に画像用に設計されているが、SAM2のサポートによりビデオ領域にシームレスに拡張できる。
論文 参考訳(メタデータ) (2025-04-16T13:41:59Z) - Evaluation Study on SAM 2 for Class-agnostic Instance-level Segmentation [2.5524809198548137]
Segment Anything Model (SAM) は自然界において強力なゼロショットセグメンテーション性能を示した。
最近リリースされたSegment Anything Model 2 (SAM2)は、画像セグメンテーション機能に対する研究者の期待をさらに高めた。
この技術レポートはSAM2ベースのアダプタの出現を加速させ,クラスに依存しないインスタンスセグメンテーションタスクにおいて,大規模ビジョンモデルの性能向上を目的としている。
論文 参考訳(メタデータ) (2024-09-04T09:35:09Z) - SAM2-UNet: Segment Anything 2 Makes Strong Encoder for Natural and Medical Image Segmentation [51.90445260276897]
我々は,Segment Anything Model 2 (SAM2) がU字型セグメンテーションモデルの強力なエンコーダであることを証明した。
本稿では, SAM2-UNet と呼ばれる, 汎用画像分割のための簡易かつ効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-16T17:55:38Z) - SAM-CP: Marrying SAM with Composable Prompts for Versatile Segmentation [88.80792308991867]
Segment Anything Model (SAM)は、イメージピクセルをパッチにグループ化する機能を示しているが、セグメンテーションにそれを適用することは依然として大きな課題に直面している。
本稿では,SAM-CPを提案する。SAM-CPはSAM以外の2種類の構成可能なプロンプトを確立し,多目的セグメンテーションのために構成する単純な手法である。
実験により、SAM-CPはオープンドメインとクローズドドメインの両方においてセマンティック、例、およびパノプティックセグメンテーションを達成することが示された。
論文 参考訳(メタデータ) (2024-07-23T17:47:25Z) - Semantic-aware SAM for Point-Prompted Instance Segmentation [29.286913777078116]
本稿では,Segment Anything (SAM) を用いた費用対効果の高いカテゴリー別セグメンタを提案する。
この課題に対処するために、複数のインスタンス学習(MIL)と整合性を備えたSAMとポイントプロンプトを備えたセマンティック・アウェア・インスタンスネットワーク(SAPNet)を開発した。
SAPNetはSAMによって生成される最も代表的なマスクの提案を戦略的に選択し、セグメンテーションを監督する。
論文 参考訳(メタデータ) (2023-12-26T05:56:44Z) - Target-Aware Object Discovery and Association for Unsupervised Video
Multi-Object Segmentation [79.6596425920849]
本稿では,教師なしビデオマルチオブジェクトセグメンテーションの課題について述べる。
より正確で効率的な時間区分のための新しいアプローチを紹介します。
DAVIS$_17$とYouTube-VISに対する提案手法を評価した結果,セグメント化精度と推論速度の両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-04-10T14:39:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。