論文の概要: DRRNet: Macro-Micro Feature Fusion and Dual Reverse Refinement for Camouflaged Object Detection
- arxiv url: http://arxiv.org/abs/2505.09168v1
- Date: Wed, 14 May 2025 06:03:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-15 21:44:09.386052
- Title: DRRNet: Macro-Micro Feature Fusion and Dual Reverse Refinement for Camouflaged Object Detection
- Title(参考訳): DRRNet:カモフラージュ物体検出のためのマクロマイクロ機能融合とデュアルリバースリファインメント
- Authors: Jianlin Sun, Xiaolin Fang, Juwei Guan, Dongdong Gui, Teqi Wang, Tongxin Zhu,
- Abstract要約: DRRNetは、これらの問題に対処する"context-fusion-refinement"パイプラインを特徴とする4段階アーキテクチャである。
グローバルカモフラージュパターンをキャプチャするOmniコンテキスト特徴抽出モジュールを提案する。
次に、シーン理解と構造認識の二重表現を形成するモジュールを設計する。
- 参考スコア(独自算出の注目度): 3.4710674889857787
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The core challenge in Camouflage Object Detection (COD) lies in the indistinguishable similarity between targets and backgrounds in terms of color, texture, and shape. This causes existing methods to either lose edge details (such as hair-like fine structures) due to over-reliance on global semantic information or be disturbed by similar backgrounds (such as vegetation patterns) when relying solely on local features. We propose DRRNet, a four-stage architecture characterized by a "context-detail-fusion-refinement" pipeline to address these issues. Specifically, we introduce an Omni-Context Feature Extraction Module to capture global camouflage patterns and a Local Detail Extraction Module to supplement microstructural information for the full-scene context module. We then design a module for forming dual representations of scene understanding and structural awareness, which fuses panoramic features and local features across various scales. In the decoder, we also introduce a reverse refinement module that leverages spatial edge priors and frequency-domain noise suppression to perform a two-stage inverse refinement of the output. By applying two successive rounds of inverse refinement, the model effectively suppresses background interference and enhances the continuity of object boundaries. Experimental results demonstrate that DRRNet significantly outperforms state-of-the-art methods on benchmark datasets. Our code is available at https://github.com/jerrySunning/DRRNet.
- Abstract(参考訳): カモフラージュ物体検出(COD)における中核的な課題は、色、テクスチャ、形状の点で、ターゲットと背景の区別のつかない類似性にある。
このため、既存の手法は、グローバルな意味情報への過度な依存によるエッジの詳細(毛のような微細構造など)を失うか、あるいは、局所的な特徴にのみ依存する場合に、同様の背景(植生パターンなど)によって妨げられる。
DRRNetは,これらの問題に対処するための "context-detail-fusion-refinement" パイプラインを特徴とする4段階アーキテクチャである。
具体的には、グローバルなカモフラージュパターンをキャプチャするOmniコンテキスト特徴抽出モジュールと、フルシーンコンテキストモジュールの微細構造情報を補完するローカル詳細抽出モジュールを導入する。
次に,パノラマ的特徴と局所的特徴を様々なスケールで融合させる,シーン理解と構造認識の二重表現を形成するモジュールを設計する。
このデコーダでは,空間エッジ先行と周波数領域雑音抑圧を利用して2段階の逆補正を行うリバースリファインメントモジュールも導入する。
2回連続する逆補正を施すことで、背景干渉を効果的に抑制し、オブジェクト境界の連続性を高める。
実験の結果、DRRNetはベンチマークデータセット上で最先端の手法を著しく上回っていることがわかった。
私たちのコードはhttps://github.com/jerrySunning/DRRNetで利用可能です。
関連論文リスト
- B2Net: Camouflaged Object Detection via Boundary Aware and Boundary Fusion [10.899493419708651]
得られた境界の精度を高めるために,B2Netという新しいネットワークを提案する。
我々は、より差別的な特徴表現を統合することを目的として、Residual Feature Enhanced Module (RFEM)を提案する。
その後、境界認識モジュール(BAM)を導入し、エッジキューを2回探索する。
最後に,さまざまなスケールの情報をトップダウンで統合するCBFMを設計する。
論文 参考訳(メタデータ) (2024-12-31T13:06:06Z) - Mesh Denoising Transformer [104.5404564075393]
Mesh Denoisingは、入力メッシュからノイズを取り除き、特徴構造を保存することを目的としている。
SurfaceFormerはTransformerベースのメッシュDenoisingフレームワークのパイオニアだ。
局所曲面記述子(Local Surface Descriptor)として知られる新しい表現は、局所幾何学的複雑さをキャプチャする。
Denoising Transformerモジュールは、マルチモーダル情報を受信し、効率的なグローバル機能アグリゲーションを実現する。
論文 参考訳(メタデータ) (2024-05-10T15:27:43Z) - Frequency Perception Network for Camouflaged Object Detection [51.26386921922031]
周波数領域のセマンティック階層によって駆動される新しい学習可能かつ分離可能な周波数知覚機構を提案する。
ネットワーク全体では、周波数誘導粗い局所化ステージと細部保存の微細局在化ステージを含む2段階モデルを採用している。
提案手法は,既存のモデルと比較して,3つのベンチマークデータセットにおいて競合性能を実現する。
論文 参考訳(メタデータ) (2023-08-17T11:30:46Z) - A bioinspired three-stage model for camouflaged object detection [8.11866601771984]
本稿では,1回の繰り返しで粗い部分分割を可能にする3段階モデルを提案する。
本モデルでは, 3つのデコーダを用いて, サブサンプル特徴, 収穫特徴, および高解像度のオリジナル特徴を逐次処理する。
我々のネットワークは、不要な複雑さを伴わずに最先端のCNNベースのネットワークを上回る。
論文 参考訳(メタデータ) (2023-05-22T02:01:48Z) - DQnet: Cross-Model Detail Querying for Camouflaged Object Detection [54.82390534024954]
カモフラージュされた物体検出のための畳み込みニューラルネットワーク(CNN)は、完全な対象範囲を無視しながら局所的な識別領域を活性化する傾向がある。
本稿では,CNNの内在的特性から部分的活性化が引き起こされることを論じる。
完全なオブジェクト範囲を活性化できる特徴マップを得るために,クロスモデル詳細クエリネットワーク(DQnet)と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-16T06:23:58Z) - Feature Aggregation and Propagation Network for Camouflaged Object
Detection [42.33180748293329]
カモフラージュされたオブジェクト検出(COD)は、環境に埋め込まれたカモフラージュされたオブジェクトを検出し、分離することを目的としている。
いくつかのCOD法が開発されているが, 前景オブジェクトと背景環境との固有の類似性により, 依然として不満足な性能に悩まされている。
カモフラージュされた物体検出のための新しい特徴集約・伝播ネットワーク(FAP-Net)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:54:28Z) - Dual Swin-Transformer based Mutual Interactive Network for RGB-D Salient
Object Detection [67.33924278729903]
本研究では,Dual Swin-Transformerを用いたMutual Interactive Networkを提案する。
視覚入力における長距離依存をモデル化するために,RGBと奥行きモードの両方の機能抽出器としてSwin-Transformerを採用している。
5つの標準RGB-D SODベンチマークデータセットに関する総合的な実験は、提案手法の優位性を実証している。
論文 参考訳(メタデータ) (2022-06-07T08:35:41Z) - High-resolution Iterative Feedback Network for Camouflaged Object
Detection [128.893782016078]
カモフラージュされたオブジェクトを背景に視覚的に同化させることは、オブジェクト検出アルゴリズムにとって難しい。
エッジやバウンダリのぼやけた視界を生じさせる細部劣化を避けるために,高分解能テクスチャの詳細を抽出することを目的としている。
我々は,高解像度特徴量による低解像度表現を反復的フィードバック方式で洗練する新しいHitNetを提案する。
論文 参考訳(メタデータ) (2022-03-22T11:20:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。