論文の概要: COMPrompter: reconceptualized segment anything model with multiprompt network for camouflaged object detection
- arxiv url: http://arxiv.org/abs/2411.18858v1
- Date: Thu, 28 Nov 2024 01:58:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-02 15:20:23.486180
- Title: COMPrompter: reconceptualized segment anything model with multiprompt network for camouflaged object detection
- Title(参考訳): Comprompter: Camouflaged object detectionのためのマルチプロンプトネットワークを用いた再認識セグメントアプライズモデル
- Authors: Xiaoqin Zhang, Zhenni Yu, Li Zhao, Deng-Ping Fan, Guobao Xiao,
- Abstract要約: カモフラーグ型物体検出(COD)のための新しいマルチプロンプトネットワークComprompterを提案する。
我々のネットワークはSAMにおける単一プロンプト戦略をマルチプロンプト戦略に拡張することを目的としている。
画像埋め込みから高周波特徴を抽出するために離散ウェーブレット変換を用いる。
- 参考スコア(独自算出の注目度): 42.23374375190698
- License:
- Abstract: We rethink the segment anything model (SAM) and propose a novel multiprompt network called COMPrompter for camouflaged object detection (COD). SAM has zero-shot generalization ability beyond other models and can provide an ideal framework for COD. Our network aims to enhance the single prompt strategy in SAM to a multiprompt strategy. To achieve this, we propose an edge gradient extraction module, which generates a mask containing gradient information regarding the boundaries of camouflaged objects. This gradient mask is then used as a novel boundary prompt, enhancing the segmentation process. Thereafter, we design a box-boundary mutual guidance module, which fosters more precise and comprehensive feature extraction via mutual guidance between a boundary prompt and a box prompt. This collaboration enhances the model's ability to accurately detect camouflaged objects. Moreover, we employ the discrete wavelet transform to extract high-frequency features from image embeddings. The high-frequency features serve as a supplementary component to the multiprompt system. Finally, our COMPrompter guides the network to achieve enhanced segmentation results, thereby advancing the development of SAM in terms of COD. Experimental results across COD benchmarks demonstrate that COMPrompter achieves a cutting-edge performance, surpassing the current leading model by an average positive metric of 2.2% in COD10K. In the specific application of COD, the experimental results in polyp segmentation show that our model is superior to top-tier methods as well. The code will be made available at https://github.com/guobaoxiao/COMPrompter.
- Abstract(参考訳): そこで我々は,SAM ( segment anything model) を再考し,COD (camouflaged object detection) のためのComprompterと呼ばれる新しいマルチプロンプトネットワークを提案する。
SAMは他のモデルを超えてゼロショットの一般化能力を持ち、CODの理想的なフレームワークを提供することができる。
我々のネットワークはSAMにおける単一プロンプト戦略をマルチプロンプト戦略に拡張することを目的としている。
これを実現するために,カモフラージュされた物体の境界に関する勾配情報を含むマスクを生成するエッジ勾配抽出モジュールを提案する。
この勾配マスクは、新しい境界プロンプトとして使われ、セグメンテーションプロセスが強化される。
その後,境界プロンプトとボックスプロンプト間の相互誘導により,より正確で包括的な特徴抽出を促進するボックス境界相互誘導モジュールを設計する。
この共同作業により、カモフラージュされたオブジェクトを正確に検出するモデルの能力が向上する。
さらに、画像埋め込みから高周波特徴を抽出するために離散ウェーブレット変換を用いる。
高周波の特徴はマルチプロンプトシステムの補助成分として機能する。
最後に,我々のComprompterはネットワークをガイドして,拡張されたセグメンテーション結果を実現し,CODの観点からSAMの開発を進める。
CODベンチマークによる実験結果から、COD10Kの平均正の2.2%で、コンプロンプターが現在の先行モデルを上回っ、最先端のパフォーマンスを達成することが示された。
CODの特定の応用において、ポリプセグメンテーションの実験結果は、我々のモデルが上位層法よりも優れていることを示している。
コードはhttps://github.com/guobaoxiao/COMPrompter.comから入手できる。
関連論文リスト
- SSFam: Scribble Supervised Salient Object Detection Family [13.369217449092524]
Scribble supervised Salient Object Detection (SSSOD) は、スパーススクリブルラベルの監督の下で、周囲からの魅力的な物体のセグメンテーション能力を構築する。
セグメンテーションを改善するために、深度と熱赤外モードは複雑なシーンにおけるRGBイメージの補足となる。
本モデルでは,異なるモダリティの組み合わせ間の顕著な性能を示し,最高レベルのスクリブル制御手法を更新する。
論文 参考訳(メタデータ) (2024-09-07T13:07:59Z) - Exploring Deeper! Segment Anything Model with Depth Perception for Camouflaged Object Detection [22.027032083786242]
DSAMはSAMのゼロショット機能を利用して、RGB-Dドメインの正確なセグメンテーションを実現する。
Finer Moduleは、深度の観点から高度にキャモフラージュされたターゲットを正確にセグメンテーションする可能性を探っている。
論文 参考訳(メタデータ) (2024-07-17T06:31:29Z) - Fantastic Animals and Where to Find Them: Segment Any Marine Animal with Dual SAM [62.85895749882285]
海洋動物(英: Marine Animal、MAS)は、海洋環境に生息する動物を分類する動物である。
高性能MASのための新しい特徴学習フレームワークDual-SAMを提案する。
提案手法は,広く使用されている5つのMASデータセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-04-07T15:34:40Z) - CamoFA: A Learnable Fourier-based Augmentation for Camouflage Segmentation [25.557135220449236]
本稿では,camouflaged object detection (COD) とcamouflaged instance segmentation (CIS) の学習可能な拡張法を提案する。
提案手法は,カモフラーグ型物体検出器とインスタンスセグメンタの性能を大きなマージンで向上させる。
論文 参考訳(メタデータ) (2023-08-29T22:43:46Z) - RefSAM: Efficiently Adapting Segmenting Anything Model for Referring Video Object Segmentation [53.4319652364256]
本稿では,ビデオオブジェクトのセグメンテーションを参照するためのSAMの可能性を探るRefSAMモデルを提案する。
提案手法は,Cross-RValModalを用いることで,モダリティ学習を向上させるためにオリジナルのSAMモデルに適応する。
我々は、言語と視覚の特徴を効果的に調整し、融合させるために、パラメータ効率のチューニング戦略を採用している。
論文 参考訳(メタデータ) (2023-07-03T13:21:58Z) - Feature Aggregation and Propagation Network for Camouflaged Object
Detection [42.33180748293329]
カモフラージュされたオブジェクト検出(COD)は、環境に埋め込まれたカモフラージュされたオブジェクトを検出し、分離することを目的としている。
いくつかのCOD法が開発されているが, 前景オブジェクトと背景環境との固有の類似性により, 依然として不満足な性能に悩まされている。
カモフラージュされた物体検出のための新しい特徴集約・伝播ネットワーク(FAP-Net)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:54:28Z) - BatchFormerV2: Exploring Sample Relationships for Dense Representation
Learning [88.82371069668147]
BatchFormerV2はより一般的なバッチトランスフォーマーモジュールである。
BatchFormerV2は、現在のDETRベースの検出方法を1.3%以上改善している。
論文 参考訳(メタデータ) (2022-04-04T05:53:42Z) - Specificity-preserving RGB-D Saliency Detection [103.3722116992476]
本稿では,RGB-Dサリエンシ検出のための特異性保存ネットワーク(SP-Net)を提案する。
2つのモダリティ特化ネットワークと共有学習ネットワークを採用し、個別および共有唾液マップを生成する。
6つのベンチマークデータセットの実験では、SP-Netは他の最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2021-08-18T14:14:22Z) - BoundarySqueeze: Image Segmentation as Boundary Squeezing [104.43159799559464]
本研究では,オブジェクトとシーンの微細な高画質画像分割のための新しい手法を提案する。
形態素画像処理技術による拡張と浸食に着想を得て,画素レベルのセグメンテーション問題をスクイーズ対象境界として扱う。
提案手法は,COCO,Cityscapesのインスタンス・セグメンテーション・セグメンテーション・セグメンテーションにおいて大きく向上し,同一条件下での精度・速度ともに従来のPointRendよりも優れていた。
論文 参考訳(メタデータ) (2021-05-25T04:58:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。