論文の概要: CGCOD: Class-Guided Camouflaged Object Detection
- arxiv url: http://arxiv.org/abs/2412.18977v2
- Date: Wed, 15 Jan 2025 15:22:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-16 15:50:46.015831
- Title: CGCOD: Class-Guided Camouflaged Object Detection
- Title(参考訳): CGCOD: クラスガイド付きカモフラージュオブジェクト検出
- Authors: Chenxi Zhang, Qing Zhang, Jiayun Wu, Youwei Pang,
- Abstract要約: 我々は,従来のCODタスクを拡張したCGCOD(Class-Guided Camouflaged Object Detection)を導入する。
本稿では,プラグイン・アンド・プレイのクラス・プロンプト・ジェネレータと,シンプルで効果的なクラス・ガイダンス・ディテクターを組み込んだマルチステージ・フレームワークCGNetを提案する。
これはCODの新しいパラダイムを確立し、コンテキスト理解とクラス誘導検出のギャップを埋める。
- 参考スコア(独自算出の注目度): 19.959268087062217
- License:
- Abstract: Camouflaged Object Detection (COD) aims to identify objects that blend seamlessly into their surroundings. The inherent visual complexity of camouflaged objects, including their low contrast with the background, diverse textures, and subtle appearance variations, often obscures semantic cues, making accurate segmentation highly challenging. Existing methods primarily rely on visual features, which are insufficient to handle the variability and intricacy of camouflaged objects, leading to unstable object perception and ambiguous segmentation results. To tackle these limitations, we introduce a novel task, class-guided camouflaged object detection (CGCOD), which extends traditional COD task by incorporating object-specific class knowledge to enhance detection robustness and accuracy. To facilitate this task, we present a new dataset, CamoClass, comprising real-world camouflaged objects with class annotations. Furthermore, we propose a multi-stage framework, CGNet, which incorporates a plug-and-play class prompt generator and a simple yet effective class-guided detector. This establishes a new paradigm for COD, bridging the gap between contextual understanding and class-guided detection. Extensive experimental results demonstrate the effectiveness of our flexible framework in improving the performance of proposed and existing detectors by leveraging class-level textual information.
- Abstract(参考訳): カモフラーゲ型物体検出(COD)は、周囲にシームレスに溶け込んだ物体を識別することを目的としている。
カモフラージュされた物体の視覚的複雑さは、背景との低コントラスト、多様なテクスチャ、微妙な外観の変化など、しばしば意味的な手がかりを曖昧にし、正確なセグメンテーションを非常に困難にしている。
既存の手法は主に視覚的特徴に依存しており、カモフラージュされた物体の変動や複雑度を扱うには不十分であり、不安定な物体知覚と曖昧なセグメンテーションの結果をもたらす。
これらの制約に対処するために,従来のCODタスクを拡張した新しいタスク,CGCODを導入し,オブジェクト固有のクラス知識を取り入れて,検出の堅牢性と精度を高める。
この作業を容易にするために,実世界の Camouflaged オブジェクトとクラスアノテーションを組み合わせた新しいデータセット CamoClass を提案する。
さらに,プラグイン・アンド・プレイのクラス・プロンプト・ジェネレータと,シンプルで効果的なクラス・ガイダンス・ディテクターを組み込んだマルチステージ・フレームワークCGNetを提案する。
これはCODの新しいパラダイムを確立し、コンテキスト理解とクラス誘導検出のギャップを埋める。
大規模な実験結果から,提案および既存検出器の性能向上のためのフレキシブルフレームワークの有効性を,クラスレベルのテキスト情報を活用することで実証した。
関連論文リスト
- Adaptive Guidance Learning for Camouflaged Object Detection [23.777432551429396]
本稿では,適応型誘導学習ネットワーク「textitAGLNet」を提案する。
広く使用されている3つのCODベンチマークデータセットの実験により,提案手法が大幅な性能向上を実現することが示された。
論文 参考訳(メタデータ) (2024-05-05T06:21:58Z) - Referring Camouflaged Object Detection [97.90911862979355]
Ref-COD は、特定のカモフラージュされたオブジェクトを、サルエントターゲットオブジェクトによる参照画像の小さなセットに基づいて分割することを目的としている。
R2C7Kと呼ばれる大規模なデータセットは、実世界のシナリオで64のオブジェクトカテゴリをカバーする7Kイメージで構成されています。
論文 参考訳(メタデータ) (2023-06-13T04:15:37Z) - The Art of Camouflage: Few-Shot Learning for Animal Detection and Segmentation [21.047026366450197]
カモフラージュされた物体の検出とセグメンテーションにおける数ショット学習の問題に対処する。
そこで我々は, Camouflaged インスタンスを効率的に検出・分割するフレームワーク FS-CDIS を提案する。
提案手法は,新たに収集したデータセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2023-04-15T01:33:14Z) - CamDiff: Camouflage Image Augmentation via Diffusion Model [83.35960536063857]
CamDiffは、カモフラージュされたシーンで透明なオブジェクトを合成するための新しいアプローチだ。
我々は,潜伏拡散モデルを用いて,カモフラージュされたシーンで有能な物体を合成する。
当社のアプローチでは、フレキシブルな編集と大規模データセットの効率的な生成を低コストで実現している。
論文 参考訳(メタデータ) (2023-04-11T19:37:47Z) - Boundary-Guided Camouflaged Object Detection [20.937071658007255]
カモフラージュ物体検出のための新しい境界誘導ネットワーク(BGNet)を提案する。
提案手法は,CODの表現学習をガイドするために,重要かつ余分なオブジェクト関連エッジセマンティクスを探索する。
提案手法は, 正確な境界位置同定を行うために, カモフラージュした物体の検出を促進する。
論文 参考訳(メタデータ) (2022-07-02T10:48:35Z) - Deep Gradient Learning for Efficient Camouflaged Object Detection [152.24312279220598]
本稿では、勾配カモフラーグ型物体検出(COD)のためのオブジェクト監視を利用する新しいディープフレームワークであるDGNetを紹介する。
シンプルだが効率的なフレームワークから恩恵を受け、DGNetは既存の最先端のCODモデルよりも大きなマージンで優れている。
また,提案したDGNetは,ポリプのセグメンテーション,欠陥検出,透過的なオブジェクトセグメンテーションタスクにおいて良好に機能することを示した。
論文 参考訳(メタデータ) (2022-05-25T15:25:18Z) - Towards Deeper Understanding of Camouflaged Object Detection [64.81987999832032]
バイナリセグメンテーション設定は、カモフラージュの概念を完全に理解できない。
そこで本研究では,カモフラージュされたオブジェクトの局所化,セグメント化,ランク付けを同時に行う3段階学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-23T14:26:18Z) - Simultaneously Localize, Segment and Rank the Camouflaged Objects [55.46101599577343]
camouflaged object detectionは、周囲に隠されているcamouflaged objectsを分割することを目的としている。
私たちは、カモフラージュされた物体の目立ちを特定の背景に明確にモデル化することは、カモフラージュと動物の進化をよりよく理解するのに役立つと主張しています。
迷彩オブジェクトを同時にローカライズ、セグメント化、ランク付けする最初のランキングベースのCODネットワーク(Rank-Net)を紹介します。
論文 参考訳(メタデータ) (2021-03-06T02:53:36Z) - Concealed Object Detection [140.98738087261887]
隠蔽物体検出(COD)に関する最初の体系的研究を紹介します。
CODは、背景に「完全に」埋め込まれているオブジェクトを特定することを目指しています。
このタスクをより理解するために、cod10kと呼ばれる大規模なデータセットを収集します。
論文 参考訳(メタデータ) (2021-02-20T06:49:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。