論文の概要: Discover, Segment, and Select: A Progressive Mechanism for Zero-shot Camouflaged Object Segmentation
- arxiv url: http://arxiv.org/abs/2602.19944v1
- Date: Mon, 23 Feb 2026 15:15:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.874794
- Title: Discover, Segment, and Select: A Progressive Mechanism for Zero-shot Camouflaged Object Segmentation
- Title(参考訳): 発見, セグメンテーション, 選択: ゼロショットカモフラージュオブジェクトセグメンテーションの進行メカニズム
- Authors: Yilong Yang, Jianxin Tian, Shengchuan Zhang, Liujuan Cao,
- Abstract要約: textbfDSSは段階的にセグメンテーションを洗練するために設計されたプログレッシブフレームワークである。
複数のCOSベンチマーク、特に複数のインスタンスシーンで最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 40.66340261994875
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current zero-shot Camouflaged Object Segmentation methods typically employ a two-stage pipeline (discover-then-segment): using MLLMs to obtain visual prompts, followed by SAM segmentation. However, relying solely on MLLMs for camouflaged object discovery often leads to inaccurate localization, false positives, and missed detections. To address these issues, we propose the \textbf{D}iscover-\textbf{S}egment-\textbf{S}elect (\textbf{DSS}) mechanism, a progressive framework designed to refine segmentation step by step. The proposed method contains a Feature-coherent Object Discovery (FOD) module that leverages visual features to generate diverse object proposals, a segmentation module that refines these proposals through SAM segmentation, and a Semantic-driven Mask Selection (SMS) module that employs MLLMs to evaluate and select the optimal segmentation mask from multiple candidates. Without requiring any training or supervision, DSS achieves state-of-the-art performance on multiple COS benchmarks, especially in multiple-instance scenes.
- Abstract(参考訳): 現在のゼロショットのCamouflaged Object Segmentationメソッドは一般的に2段階のパイプラインを使用し、MLLMを使用して視覚的なプロンプトを取得し、SAMセグメンテーションを行う。
しかし、カモフラージュされた物体発見のためのMLLMのみに依存すると、しばしば不正確な位置化、偽陽性、発見の欠如につながる。
これらの問題に対処するために,段階的にセグメンテーションを洗練させるために設計されたプログレッシブフレームワークである \textbf{D}iscover-\textbf{S}egment-\textbf{S}elect (\textbf{DSS}) 機構を提案する。
提案手法は,視覚的特徴を利用して多様なオブジェクト提案を生成する特徴コヒーレントオブジェクトディスカバリ(FOD)モジュールと,SAMセグメンテーションによりこれらの提案を洗練するセグメンテーションモジュールと,MLLMを用いて複数の候補から最適なセグメンテーションマスクを評価・選択するセグメンテーションモジュールとを含む。
トレーニングや監督を必要とせず、DSSは複数のCOSベンチマーク、特に複数のインスタンスシーンで最先端のパフォーマンスを達成する。
関連論文リスト
- Segment and Matte Anything in a Unified Model [5.8874968768571625]
Segment Anything (SAM)は先日,ゼロショットの一般化とフレキシブルプロンプトを実証することによって,セグメンテーションの境界を推し進めた。
SAMの軽量拡張であるSegment And Matte Anything(SAMA)を紹介する。
論文 参考訳(メタデータ) (2026-01-17T19:43:10Z) - Evaluating SAM2 for Video Semantic Segmentation [60.157605818225186]
Anything Model 2 (SAM2)は、画像とビデオの両方において、迅速な視覚オブジェクトのセグメンテーションのための強力な基盤モデルであることが証明されている。
本稿では, SAM2 から高密度ビデオセマンティック (VSS) への拡張について検討する。
我々の実験は、SAM2を利用することでVSSの全体的な性能が向上することを示唆している。
論文 参考訳(メタデータ) (2025-12-01T15:15:16Z) - BiPrompt-SAM: Enhancing Image Segmentation via Explicit Selection between Point and Text Prompts [2.2261951153501274]
BiPrompt-SAMは、新しいデュアルモーダルプロンプトセグメンテーションフレームワークである。
複雑なモデル修正なしに、空間的精度と意味的文脈を融合する。
これはEndovis17の医療データセット上で強力なゼロショットパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-03-25T15:38:55Z) - Bridge the Points: Graph-based Few-shot Segment Anything Semantically [79.1519244940518]
プレトレーニング技術の最近の進歩により、視覚基礎モデルの能力が向上した。
最近の研究はSAMをFew-shot Semantic segmentation (FSS)に拡張している。
本稿では,グラフ解析に基づく簡易かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-10-09T15:02:28Z) - DQFormer: Towards Unified LiDAR Panoptic Segmentation with Decoupled Queries [14.435906383301555]
本稿では,統合ワークフローにセマンティックとインスタンスセグメンテーションを実装するDQFormerという新しいフレームワークを提案する。
具体的には,セマンティクスを用いた情報的クエリを局所化して提案する,疎結合なクエリジェネレータを設計する。
また、クエリ指向マスクデコーダを導入し、対応するセグメンテーションマスクをデコードする。
論文 参考訳(メタデータ) (2024-08-28T14:14:33Z) - Segment Anything Meets Point Tracking [116.44931239508578]
本稿では,SAMと長期点追跡を併用した,ポイント中心の対話型ビデオセグメンテーションの新たな手法を提案する。
ゼロショットオープンワールドUnidentified Video Objects(UVO)ベンチマークで直接評価することで,ポイントベーストラッキングのメリットを強調した。
DAVIS, YouTube-VOS, BDD100Kなどの人気ビデオオブジェクトのセグメンテーションと多目的セグメンテーションのベンチマーク実験により, ポイントベースセグメンテーショントラッカーがより優れたゼロショット性能と効率的なインタラクションをもたらすことが示唆された。
論文 参考訳(メタデータ) (2023-07-03T17:58:01Z) - Instance-Specific Feature Propagation for Referring Segmentation [28.58551450280675]
セグメンテーションの参照は、自然言語表現で示されるターゲットインスタンスのセグメンテーションマスクを生成することを目的としている。
本稿では,特徴伝搬により興味の対象を同時に検出し,きめ細かいセグメンテーションマスクを生成する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-26T07:08:14Z) - Target-Aware Object Discovery and Association for Unsupervised Video
Multi-Object Segmentation [79.6596425920849]
本稿では,教師なしビデオマルチオブジェクトセグメンテーションの課題について述べる。
より正確で効率的な時間区分のための新しいアプローチを紹介します。
DAVIS$_17$とYouTube-VISに対する提案手法を評価した結果,セグメント化精度と推論速度の両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-04-10T14:39:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。