論文の概要: C3Net: Context-Contrast Network for Camouflaged Object Detection
- arxiv url: http://arxiv.org/abs/2511.12627v1
- Date: Sun, 16 Nov 2025 14:35:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.413539
- Title: C3Net: Context-Contrast Network for Camouflaged Object Detection
- Title(参考訳): C3Net:Camouflaged Object Detectionのためのコンテキストコントラストネットワーク
- Authors: Baber Jan, Aiman H. El-Maleh, Abdul Jabbar Siddiqui, Abdul Bais, Saeed Anwar,
- Abstract要約: カモフラージュされた物体検出は、同様の色、テクスチャ、パターンを通じて周囲とシームレスに融合する物体を特定する。
CODの基本的な課題は、内在的類似性、エッジ破壊、極端スケール破壊、環境複雑さ、文脈依存、正当性カモフラージュ対象の曖昧さの6つである。
我々はC3Netを提案する。C3Netは、特殊なデュアルパスウェイデコーダアーキテクチャによって、全ての課題に対処する。
- 参考スコア(独自算出の注目度): 18.878603418735224
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Camouflaged object detection identifies objects that blend seamlessly with their surroundings through similar colors, textures, and patterns. This task challenges both traditional segmentation methods and modern foundation models, which fail dramatically on camouflaged objects. We identify six fundamental challenges in COD: Intrinsic Similarity, Edge Disruption, Extreme Scale Variation, Environmental Complexities, Contextual Dependencies, and Salient-Camouflaged Object Disambiguation. These challenges frequently co-occur and compound the difficulty of detection, requiring comprehensive architectural solutions. We propose C3Net, which addresses all challenges through a specialized dual-pathway decoder architecture. The Edge Refinement Pathway employs gradient-initialized Edge Enhancement Modules to recover precise boundaries from early features. The Contextual Localization Pathway utilizes our novel Image-based Context Guidance mechanism to achieve intrinsic saliency suppression without external models. An Attentive Fusion Module synergistically combines the two pathways via spatial gating. C3Net achieves state-of-the-art performance with S-measures of 0.898 on COD10K, 0.904 on CAMO, and 0.913 on NC4K, while maintaining efficient processing. C3Net demonstrates that complex, multifaceted detection challenges require architectural innovation, with specialized components working synergistically to achieve comprehensive coverage beyond isolated improvements. Code, model weights, and results are available at https://github.com/Baber-Jan/C3Net.
- Abstract(参考訳): カモフラージュされた物体検出は、同様の色、テクスチャ、パターンを通じて周囲とシームレスに融合する物体を特定する。
このタスクは、従来のセグメンテーション手法と、カモフラージュされたオブジェクトで劇的に失敗するモダンな基礎モデルの両方に挑戦する。
我々は,CODの基本的な課題として,内在的類似性,エッジ破壊,極度スケール変動,環境複雑性,文脈依存性,正当性カモフラージュオブジェクトの曖昧さの6つを識別する。
これらの課題は、しばしば共起し、検出の難しさを複雑化し、包括的なアーキテクチャソリューションを必要とします。
我々はC3Netを提案する。C3Netは、特殊なデュアルパスウェイデコーダアーキテクチャによって、全ての課題に対処する。
Edge Refinement Pathwayは、初期機能から正確なバウンダリを回復するために、勾配初期化エッジ拡張モジュールを使用している。
文脈局所化経路は、我々の新しい画像ベースコンテキスト誘導機構を利用して、外部モデルなしで本質的な塩分抑制を実現する。
Attentive Fusion Moduleは、空間ゲーティングを介して2つの経路を相乗的に結合する。
C3NetはCOD10Kで0.898、CAMOで0.904、NC4Kで0.913のS測定を行い、効率的な処理を維持しながら最先端の性能を実現している。
C3Netは、複雑で多面的な検出課題はアーキテクチャの革新を必要とし、特別なコンポーネントは、分離された改善を超えて包括的なカバレッジを達成するために相乗的に機能することを示した。
コード、モデルの重み付け、結果はhttps://github.com/Baber-Jan/C3Net.comで公開されている。
関連論文リスト
- SPEGNet: Synergistic Perception-Guided Network for Camouflaged Object Detection [18.878603418735224]
カモフラージュされたオブジェクト検出は、固有の類似性とエッジ破壊を持つオブジェクトをセグメント化する。
現在の検出方法は蓄積された複雑なコンポーネントに依存している。
統一設計による断片化に対処するSPEGNetを提案する。
論文 参考訳(メタデータ) (2025-10-06T04:06:40Z) - Hierarchical Graph Interaction Transformer with Dynamic Token Clustering for Camouflaged Object Detection [57.883265488038134]
本稿では,HGINetと呼ばれる階層的なグラフ相互作用ネットワークを提案する。
このネットワークは、階層的トークン化機能間の効果的なグラフ相互作用を通じて、知覚不能なオブジェクトを発見することができる。
本実験は,既存の最先端手法と比較して,HGINetの優れた性能を示すものである。
論文 参考訳(メタデータ) (2024-08-27T12:53:25Z) - ZoomNeXt: A Unified Collaborative Pyramid Network for Camouflaged Object Detection [70.11264880907652]
最近のオブジェクト(COD)は、現実のシナリオでは極めて複雑で難しい、視覚的にブレンドされたオブジェクトを周囲に分割しようと試みている。
本研究では,不明瞭な画像を観察したり,ズームインしたりアウトしたりする際の人間の行動を模倣する,効果的な統合協調ピラミッドネットワークを提案する。
我々のフレームワークは、画像とビデオのCODベンチマークにおいて、既存の最先端の手法を一貫して上回っている。
論文 参考訳(メタデータ) (2023-10-31T06:11:23Z) - A bioinspired three-stage model for camouflaged object detection [8.11866601771984]
本稿では,1回の繰り返しで粗い部分分割を可能にする3段階モデルを提案する。
本モデルでは, 3つのデコーダを用いて, サブサンプル特徴, 収穫特徴, および高解像度のオリジナル特徴を逐次処理する。
我々のネットワークは、不要な複雑さを伴わずに最先端のCNNベースのネットワークを上回る。
論文 参考訳(メタデータ) (2023-05-22T02:01:48Z) - Context-aware Cross-level Fusion Network for Camouflaged Object
Detection [23.109969322128958]
本稿では,C2F-Net(Context-aware Cross-level Fusion Network)を提案する。
我々のC2F-Netは有効なCODモデルであり、最先端モデルよりも優れています。
論文 参考訳(メタデータ) (2021-05-26T14:03:36Z) - Boundary-Aware Segmentation Network for Mobile and Web Applications [60.815545591314915]
境界認識ネットワーク(basnet)は、精度の高い画像分割のための予測再定義アーキテクチャとハイブリッド損失と統合されている。
basnetは単一のgpu上で70fps以上動作し、多くの潜在的なアプリケーションが利用できる。
BASNetをベースに、BASNetが「COPY」と「PASTING」現実世界のオブジェクトのための拡張現実であるAR COPY & PASTEと、オブジェクト背景の自動削除のためのWebベースのツールであるOBJECT CUTの2つの(近い)商用アプリケーションをさらに開発しました。
論文 参考訳(メタデータ) (2021-01-12T19:20:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。