論文の概要: Exploring Deeper! Segment Anything Model with Depth Perception for Camouflaged Object Detection
- arxiv url: http://arxiv.org/abs/2407.12339v1
- Date: Wed, 17 Jul 2024 06:31:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-18 18:17:30.653415
- Title: Exploring Deeper! Segment Anything Model with Depth Perception for Camouflaged Object Detection
- Title(参考訳): カモフラージュ物体検出のための深度知覚を用いた深度情報探索モデル
- Authors: Zhenni Yu, Xiaoqin Zhang, Li Zhao, Yi Bin, Guobao Xiao,
- Abstract要約: DSAMはSAMのゼロショット機能を利用して、RGB-Dドメインの正確なセグメンテーションを実現する。
Finer Moduleは、深度の観点から高度にキャモフラージュされたターゲットを正確にセグメンテーションする可能性を探っている。
- 参考スコア(独自算出の注目度): 22.027032083786242
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces a new Segment Anything Model with Depth Perception (DSAM) for Camouflaged Object Detection (COD). DSAM exploits the zero-shot capability of SAM to realize precise segmentation in the RGB-D domain. It consists of the Prompt-Deeper Module and the Finer Module. The Prompt-Deeper Module utilizes knowledge distillation and the Bias Correction Module to achieve the interaction between RGB features and depth features, especially using depth features to correct erroneous parts in RGB features. Then, the interacted features are combined with the box prompt in SAM to create a prompt with depth perception. The Finer Module explores the possibility of accurately segmenting highly camouflaged targets from a depth perspective. It uncovers depth cues in areas missed by SAM through mask reversion, self-filtering, and self-attention operations, compensating for its defects in the COD domain. DSAM represents the first step towards the SAM-based RGB-D COD model. It maximizes the utilization of depth features while synergizing with RGB features to achieve multimodal complementarity, thereby overcoming the segmentation limitations of SAM and improving its accuracy in COD. Experimental results on COD benchmarks demonstrate that DSAM achieves excellent segmentation performance and reaches the state-of-the-art (SOTA) on COD benchmarks with less consumption of training resources. The code will be available at https://github.com/guobaoxiao/DSAM.
- Abstract(参考訳): 本稿では,カモフラージュ物体検出(COD)のためのDSAM(Degment Anything Model)を提案する。
DSAMはSAMのゼロショット機能を利用して、RGB-Dドメインの正確なセグメンテーションを実現する。
Prompt-DeeperモジュールとFinerモジュールで構成されている。
Prompt-Deeperモジュールは、知識蒸留とバイアス補正モジュールを使用して、RGB特徴と深度特徴の相互作用を実現する。
次に、相互作用した特徴とSAMのボックスプロンプトを組み合わせることで、深度知覚のプロンプトを生成する。
Finer Moduleは、深度の観点から高度にキャモフラージュされたターゲットを正確にセグメンテーションする可能性を探っている。
CODドメインの欠陥を補うために、マスクの反転、自己フィルタリング、自己注意操作を通じてSAMが見逃した領域の深さの手がかりを明らかにする。
DSAMはSAMベースのRGB-D CODモデルに向けた第一歩である。
RGB特徴と相乗化してマルチモーダルな相補性を達成し,SAMのセグメンテーション限界を克服し,CODの精度を向上する。
CODベンチマーク実験の結果,DSAMのセグメンテーション性能は良好であり,CODベンチマークにおけるSOTA(State-of-the-art)に到達し,トレーニングリソースの消費を減らした。
コードはhttps://github.com/guobaoxiao/DSAMで入手できる。
関連論文リスト
- SSFam: Scribble Supervised Salient Object Detection Family [13.369217449092524]
Scribble supervised Salient Object Detection (SSSOD) は、スパーススクリブルラベルの監督の下で、周囲からの魅力的な物体のセグメンテーション能力を構築する。
セグメンテーションを改善するために、深度と熱赤外モードは複雑なシーンにおけるRGBイメージの補足となる。
本モデルでは,異なるモダリティの組み合わせ間の顕著な性能を示し,最高レベルのスクリブル制御手法を更新する。
論文 参考訳(メタデータ) (2024-09-07T13:07:59Z) - Segment Anything with Multiple Modalities [61.74214237816402]
我々は,異なるセンサスイートによる堅牢で拡張されたセグメンテーションのために,クロスモーダルおよびマルチモーダル処理をサポートするMM-SAMを開発した。
MM-SAMは、教師なしのクロスモーダル転送と弱い教師付きマルチモーダル融合という、2つの重要な設計を特徴としている。
1)単一モーダル処理のための多様な非RGBセンサへの適応,2)センサ融合によるマルチモーダルデータの相乗的処理,3)異なる下流タスクのためのマスクフリートレーニング,の3つの課題に対処する。
論文 参考訳(メタデータ) (2024-08-17T03:45:40Z) - Multi-Scale and Detail-Enhanced Segment Anything Model for Salient Object Detection [58.241593208031816]
Segment Anything Model (SAM) は、強力なセグメンテーションと一般化機能を提供する視覚的基本モデルとして提案されている。
実物検出のためのMDSAM(Multi-scale and Detail-enhanced SAM)を提案する。
実験により,複数のSODデータセット上でのモデルの優れた性能が示された。
論文 参考訳(メタデータ) (2024-08-08T09:09:37Z) - IRSAM: Advancing Segment Anything Model for Infrared Small Target Detection [55.554484379021524]
Infrared Small Target Detection (IRSTD) タスクは、自然画像と赤外線画像の間に顕著な領域ギャップがあるため、満足度の高い性能を達成するには不十分である。
IRSTDのためのIRSAMモデルを提案する。これはSAMのエンコーダデコーダアーキテクチャを改善し、赤外線小物体の特徴表現をより良く学習する。
論文 参考訳(メタデータ) (2024-07-10T10:17:57Z) - MAS-SAM: Segment Any Marine Animal with Aggregated Features [55.91291540810978]
そこで本研究では,海洋生物のセグメンテーションのためのMAS-SAMという新しい特徴学習フレームワークを提案する。
本手法により,グローバルな文脈的手がかりからよりリッチな海洋情報を抽出し,よりきめ細かな局部的詳細を抽出できる。
論文 参考訳(メタデータ) (2024-04-24T07:38:14Z) - Fantastic Animals and Where to Find Them: Segment Any Marine Animal with Dual SAM [62.85895749882285]
海洋動物(英: Marine Animal、MAS)は、海洋環境に生息する動物を分類する動物である。
高性能MASのための新しい特徴学習フレームワークDual-SAMを提案する。
提案手法は,広く使用されている5つのMASデータセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-04-07T15:34:40Z) - Can SAM Segment Anything? When SAM Meets Camouflaged Object Detection [8.476593072868056]
SAMはMeta AI Researchが最近リリースしたセグメンテーションモデルである。
我々は,SAMがカモフラージュオブジェクト検出(COD)タスクに対処できるかどうかを問うとともに,SAMの性能をCODベンチマークで評価する。
また,SAMの性能を22の最先端COD法と比較した。
論文 参考訳(メタデータ) (2023-04-10T17:05:58Z) - Dual Swin-Transformer based Mutual Interactive Network for RGB-D Salient
Object Detection [67.33924278729903]
本研究では,Dual Swin-Transformerを用いたMutual Interactive Networkを提案する。
視覚入力における長距離依存をモデル化するために,RGBと奥行きモードの両方の機能抽出器としてSwin-Transformerを採用している。
5つの標準RGB-D SODベンチマークデータセットに関する総合的な実験は、提案手法の優位性を実証している。
論文 参考訳(メタデータ) (2022-06-07T08:35:41Z) - Depth-Guided Camouflaged Object Detection [31.99397550848777]
生物学の研究は、深度がカモフラージュされた物体の発見に有用な物体の局在の手がかりとなることを示唆している。
深度情報はカモフラージュされた物体検出には使われていない。
本稿では,既存の単分子深度推定法から事前計算した深度マップを用いた深度誘導型カモフラージュ物体検出ネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-24T17:51:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。