論文の概要: SAM-COD: SAM-guided Unified Framework for Weakly-Supervised Camouflaged Object Detection
- arxiv url: http://arxiv.org/abs/2408.10760v1
- Date: Tue, 20 Aug 2024 11:49:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-21 13:55:03.943018
- Title: SAM-COD: SAM-guided Unified Framework for Weakly-Supervised Camouflaged Object Detection
- Title(参考訳): SAM-COD:弱スーパービジョンのカモフラージュ物体検出のためのSAM誘導統一フレームワーク
- Authors: Huafeng Chen, Pengxu Wei, Guangqian Guo, Shan Gao,
- Abstract要約: カモフラージュされたオブジェクト検出(COD)手法の多くは、取得するのに時間と労力を要するマスクアノテーションに大きく依存している。
既存の弱教師付きCODアプローチは、完全教師付き手法に比べて性能が著しく劣っている。
我々は、任意の弱教師付きラベルをサポート可能な、SAM-CODと呼ばれる統合CODフレームワークを提案する。
- 参考スコア(独自算出の注目度): 12.915303163650002
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most Camouflaged Object Detection (COD) methods heavily rely on mask annotations, which are time-consuming and labor-intensive to acquire. Existing weakly-supervised COD approaches exhibit significantly inferior performance compared to fully-supervised methods and struggle to simultaneously support all the existing types of camouflaged object labels, including scribbles, bounding boxes, and points. Even for Segment Anything Model (SAM), it is still problematic to handle the weakly-supervised COD and it typically encounters challenges of prompt compatibility of the scribble labels, extreme response, semantically erroneous response, and unstable feature representations, producing unsatisfactory results in camouflaged scenes. To mitigate these issues, we propose a unified COD framework in this paper, termed SAM-COD, which is capable of supporting arbitrary weakly-supervised labels. Our SAM-COD employs a prompt adapter to handle scribbles as prompts based on SAM. Meanwhile, we introduce response filter and semantic matcher modules to improve the quality of the masks obtained by SAM under COD prompts. To alleviate the negative impacts of inaccurate mask predictions, a new strategy of prompt-adaptive knowledge distillation is utilized to ensure a reliable feature representation. To validate the effectiveness of our approach, we have conducted extensive empirical experiments on three mainstream COD benchmarks. The results demonstrate the superiority of our method against state-of-the-art weakly-supervised and even fully-supervised methods.
- Abstract(参考訳): カモフラージュされたオブジェクト検出(COD)手法の多くは、取得するのに時間と労力を要するマスクアノテーションに大きく依存している。
既存のCODアプローチは、完全に教師された手法に比べて性能が著しく劣り、スクリブル、バウンディングボックス、ポイントを含む既存のカモフラージュされたオブジェクトラベルを同時にサポートするのに苦労している。
Segment Anything Model (SAM)でさえ、弱い監督されたCODを扱うことは問題であり、通常、スクリブルラベルの迅速な互換性、極端な応答、セマンティックな誤った応答、不安定な特徴表現といった課題に直面する。
これらの問題を緩和するために, SAM-CODと呼ばれる, 任意の弱教師付きラベルをサポート可能な統合CODフレームワークを提案する。
我々のSAM-CODは、SAMに基づくプロンプトとしてスクリブルを扱うためにプロンプトアダプタを使用している。
一方, SAMによるCODプロンプト下でのマスクの品質向上のために, 応答フィルタとセマンティックマーカモジュールを導入している。
不正確なマスク予測の負の影響を軽減するため、信頼度の高い特徴表現を確保するために、迅速適応型知識蒸留の新しい戦略を用いる。
提案手法の有効性を検証するため,3つの主要なCODベンチマークで広範な実験を行った。
その結果, 最先端の弱教師付き手法, 完全教師付き手法に対して, 提案手法の優位性が示された。
関連論文リスト
- Promptable Anomaly Segmentation with SAM Through Self-Perception Tuning [63.55145330447408]
Segment Anything Model (SAM) は、その顕著な一般化能力により、異常セグメンテーションタスクにおいて大きな進歩を遂げている。
SAMを直接適用する既存のメソッドは、しばしばドメインシフトの問題を見落としている。
本稿では, SAMの異常セグメンテーションに対する知覚能力を高めることを目的とした, 自己パーセプティノンチューニング(SPT)手法を提案する。
論文 参考訳(メタデータ) (2024-11-26T08:33:25Z) - When 3D Partial Points Meets SAM: Tooth Point Cloud Segmentation with Sparse Labels [39.54551717450374]
歯点クラウドセグメンテーションは多くの矯正用アプリケーションにおいて基本的なタスクである。
近年, 3次元セグメンテーションに弱いラベルを用い, 有望な結果を得る方法が提案されている。
本稿では,SAMTooth という名前のフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-03T08:14:56Z) - SAM-PM: Enhancing Video Camouflaged Object Detection using Spatio-Temporal Attention [0.0]
Segment Anything Model (SAM) は画像セグメンテーションにおける異常な性能で注目されている。
カモフラージュされた物体は一般的に背景に溶け込み、静止画では区別が難しい。
これらの課題を克服するために,SAMスパイダーモジュール (SAM-PM) と呼ばれる新しい手法を提案する。
本手法は,SAMのパラメータの1%未満の追加で,時間的一貫性とドメイン固有の専門知識をセグメンテーションネットワークに効果的に組み込む。
論文 参考訳(メタデータ) (2024-06-09T14:33:38Z) - Chain of Visual Perception: Harnessing Multimodal Large Language Models for Zero-shot Camouflaged Object Detection [16.836026000473517]
ゼロショットカモフラージ物体検出(COD)のための新しいマルチモーダルカモ知覚フレームワーク(MMCPF)を提案する。
本研究では,現在のCOD手法を回避できるゼロショットMMCPFを提案する。
本稿では,カモフラージュシーンにおけるMLLMの知覚能力を大幅に向上させる,CoVP (Chain of Visual Perception) と呼ばれる戦略的拡張を提案する。
論文 参考訳(メタデータ) (2023-11-19T09:05:52Z) - SAM Meets UAP: Attacking Segment Anything Model With Universal Adversarial Perturbation [61.732503554088524]
画像認識不能なユニバーサル適応摂動(UAP)を用いてSAM(Segment Anything Model)を攻撃できるかどうかを検討する。
自己教師付きコントラスト学習(CL)に基づくUAP生成手法を実現する新しい摂動中心フレームワークを提案する。
CLを用いたUAP生成手法の有効性を定量的および定性的に検証した。
論文 参考訳(メタデータ) (2023-10-19T02:49:24Z) - Black-box Targeted Adversarial Attack on Segment Anything (SAM) [24.927514923402775]
本研究は,Segment Anything Model (SAM) におけるターゲット対敵攻撃 (TAA) の実現を目的とする。
具体的には、特定のプロンプトの下では、敵の例の予測マスクを所定のターゲット画像のマスクに類似させることが目的である。
本稿では, ランダムな自然画像に対する逆画像の特徴優位性を高めることで, クロスモデル転送可能性を高める新たな正規化損失を提案する。
論文 参考訳(メタデータ) (2023-10-16T02:09:03Z) - CamoFormer: Masked Separable Attention for Camouflaged Object Detection [94.2870722866853]
カモフラージュされた物体検出のための単純なマスク付き分離型注意(MSA)を提案する。
まず,マルチヘッド・セルフアテンションを3つの部分に分割し,異なるマスキング戦略を用いて,背景からカモフラージュした物体を識別する役割を担っている。
提案手法では,MSAを用いた単純なトップダウンデコーダを用いて,高精度なセグメンテーション結果を得るために,高分解能なセグメンテーション表現を段階的にキャプチャする。
論文 参考訳(メタデータ) (2022-12-10T10:03:27Z) - Robustness of Unsupervised Representation Learning without Labels [92.90480374344777]
モデルとタスクに依存しない,ラベルのない,教師なしのロバストネス尺度のファミリーを提案する。
本研究は, 線形プローブによる検証を行い, MOCOv2の場合, 対向トレーニングの結果が3倍の精度で得られたことを示す。
論文 参考訳(メタデータ) (2022-10-08T18:03:28Z) - Open-Set Semi-Supervised Object Detection [43.464223594166654]
近年,Semi-Supervised Object Detection (SSOD) の開発が進められている。
我々は、より実用的で難しい問題、OSSOD(Open-Set Semi-Supervised Object Detection)を考える。
提案フレームワークはセマンティック拡張問題に効果的に対処し,OSSODベンチマークにおける一貫した改善を示す。
論文 参考訳(メタデータ) (2022-08-29T17:04:30Z) - SIOD: Single Instance Annotated Per Category Per Image for Object
Detection [67.64774488115299]
画像内の既存のカテゴリ毎に1つのインスタンスアノテーションのみを必要とする単一インスタンスアノテーションオブジェクト検出(SIOD)を提案する。
WSOD(Inter-task)やSSOD(Inter-image)の相違点からイメージ内の相違点に分解されたSIODは、ラベルなしインスタンスの残りをマイニングする上で、より信頼性が高く豊富な事前知識を提供する。
SIOD設定下では、類似性に基づく擬似ラベル生成モジュール(SPLG)と、Pixelレベルのグループコントラスト学習モジュール(PGCL)からなる、シンプルで効果的なフレームワークであるDual-Mining(DMiner)を提案する。
論文 参考訳(メタデータ) (2022-03-29T08:49:51Z) - WSSOD: A New Pipeline for Weakly- and Semi-Supervised Object Detection [75.80075054706079]
弱機能および半教師付きオブジェクト検出フレームワーク(WSSOD)を提案する。
エージェント検出器は、まず関節データセット上でトレーニングされ、弱注釈画像上で擬似境界ボックスを予測するために使用される。
提案フレームワークはPASCAL-VOC と MSCOCO のベンチマークで顕著な性能を示し,完全教師付き環境で得られたものと同等の性能を達成している。
論文 参考訳(メタデータ) (2021-05-21T11:58:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。