論文の概要: Adaptive Guidance Learning for Camouflaged Object Detection
- arxiv url: http://arxiv.org/abs/2405.02824v2
- Date: Tue, 7 May 2024 02:17:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-08 13:00:13.493898
- Title: Adaptive Guidance Learning for Camouflaged Object Detection
- Title(参考訳): カモフラージュ物体検出のための適応誘導学習
- Authors: Zhennan Chen, Xuying Zhang, Tian-Zhu Xiang, Ying Tai,
- Abstract要約: 本稿では,適応型誘導学習ネットワーク「textitAGLNet」を提案する。
広く使用されている3つのCODベンチマークデータセットの実験により,提案手法が大幅な性能向上を実現することが示された。
- 参考スコア(独自算出の注目度): 23.777432551429396
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Camouflaged object detection (COD) aims to segment objects visually embedded in their surroundings, which is a very challenging task due to the high similarity between the objects and the background. To address it, most methods often incorporate additional information (e.g., boundary, texture, and frequency clues) to guide feature learning for better detecting camouflaged objects from the background. Although progress has been made, these methods are basically individually tailored to specific auxiliary cues, thus lacking adaptability and not consistently achieving high segmentation performance. To this end, this paper proposes an adaptive guidance learning network, dubbed \textit{AGLNet}, which is a unified end-to-end learnable model for exploring and adapting different additional cues in CNN models to guide accurate camouflaged feature learning. Specifically, we first design a straightforward additional information generation (AIG) module to learn additional camouflaged object cues, which can be adapted for the exploration of effective camouflaged features. Then we present a hierarchical feature combination (HFC) module to deeply integrate additional cues and image features to guide camouflaged feature learning in a multi-level fusion manner.Followed by a recalibration decoder (RD), different features are further aggregated and refined for accurate object prediction. Extensive experiments on three widely used COD benchmark datasets demonstrate that the proposed method achieves significant performance improvements under different additional cues, and outperforms the recent 20 state-of-the-art methods by a large margin. Our code will be made publicly available at: \textcolor{blue}{{https://github.com/ZNan-Chen/AGLNet}}.
- Abstract(参考訳): カモフラージュされた物体検出(COD)は、周囲に視覚的に埋め込まれた物体を分割することを目的としている。
この問題に対処するために、ほとんどの手法は、背景から偽装された物体をよりよく検出するための特徴学習を導くために追加情報(境界、テクスチャ、周波数ヒントなど)を組み込むことが多い。
進歩はあったものの、これらの手法は基本的に特定の補助的手段に個別に適合しており、適応性に欠け、高いセグメンテーション性能が得られない。
そこで本論文では,CNNモデルに異なる追加手法を探索し,適応させることにより,正確なキャモフラーグ付き特徴学習を導出するための一貫したエンド・ツー・エンド学習モデルである「textit{AGLNet}」という適応型ガイダンス学習ネットワークを提案する。
具体的には、まず、簡単な追加情報生成(AIG)モジュールを設計し、効果的なカモフラージュ特徴の探索に適応できる追加のカモフラーグオブジェクトキューを学習する。
次に,多段階融合方式でカモフラージュした特徴学習を誘導するために,追加の手がかりと画像特徴を深く統合する階層的特徴結合 (HFC) モジュールを提案する。
広範に使用されている3つのCODベンチマークデータセットに対する大規模な実験により、提案手法は異なる追加手法で大幅な性能向上を実現し、最近の20の最先端手法を大きなマージンで上回る結果となった。
私たちのコードは、次のように公開されます。
関連論文リスト
- SurANet: Surrounding-Aware Network for Concealed Object Detection via Highly-Efficient Interactive Contrastive Learning Strategy [55.570183323356964]
本稿では,隠蔽物体検出のための新しいSurrounding-Aware Network,すなわちSurANetを提案する。
周辺特徴の差分融合を用いて特徴写像のセマンティクスを強化し,隠蔽対象の強調を行う。
次に、周囲の特徴写像を対照的に学習することで隠蔽対象を識別するために、周囲のコントラストロスを適用した。
論文 参考訳(メタデータ) (2024-10-09T13:02:50Z) - GLCONet: Learning Multi-source Perception Representation for Camouflaged Object Detection [23.872633359324098]
我々はGLCONetと呼ばれる新しいグローバルローカル協調最適化ネットワークを提案する。
本稿では、まず、局所的な詳細とグローバルな長距離関係を同時にモデル化するための協調最適化戦略を設計する。
実験により、異なるバックボーンを持つGLCONet法は、画像中の潜在的に重要なピクセルを効果的に活性化できることが示されている。
論文 参考訳(メタデータ) (2024-09-15T02:26:17Z) - Hierarchical Graph Interaction Transformer with Dynamic Token Clustering for Camouflaged Object Detection [57.883265488038134]
本稿では,HGINetと呼ばれる階層的なグラフ相互作用ネットワークを提案する。
このネットワークは、階層的トークン化機能間の効果的なグラフ相互作用を通じて、知覚不能なオブジェクトを発見することができる。
本実験は,既存の最先端手法と比較して,HGINetの優れた性能を示すものである。
論文 参考訳(メタデータ) (2024-08-27T12:53:25Z) - You Do Not Need Additional Priors in Camouflage Object Detection [9.494171532426853]
カモフラージュ物体検出(COD)は、カモフラージュされた物体とその周囲の類似性が高いため、重要な課題となる。
本稿では,多層特徴情報を効果的に組み合わせて誘導情報を生成する適応的特徴集約手法を提案する。
提案手法は,最先端手法と比較して,同等あるいは優れた性能を実現する。
論文 参考訳(メタデータ) (2023-10-01T15:44:07Z) - Unveiling Camouflage: A Learnable Fourier-based Augmentation for
Camouflaged Object Detection and Instance Segmentation [27.41886911999097]
本稿では,camouflaged object detection (COD) とcamouflaged instance segmentation (CIS) の学習可能な拡張法を提案する。
提案手法は,カモフラージュされた対象検出器とカモフラーグされたインスタンスセグメンタの性能を大きなマージンで向上させる。
論文 参考訳(メタデータ) (2023-08-29T22:43:46Z) - Frequency Perception Network for Camouflaged Object Detection [51.26386921922031]
周波数領域のセマンティック階層によって駆動される新しい学習可能かつ分離可能な周波数知覚機構を提案する。
ネットワーク全体では、周波数誘導粗い局所化ステージと細部保存の微細局在化ステージを含む2段階モデルを採用している。
提案手法は,既存のモデルと比較して,3つのベンチマークデータセットにおいて競合性能を実現する。
論文 参考訳(メタデータ) (2023-08-17T11:30:46Z) - Feature Aggregation and Propagation Network for Camouflaged Object
Detection [42.33180748293329]
カモフラージュされたオブジェクト検出(COD)は、環境に埋め込まれたカモフラージュされたオブジェクトを検出し、分離することを目的としている。
いくつかのCOD法が開発されているが, 前景オブジェクトと背景環境との固有の類似性により, 依然として不満足な性能に悩まされている。
カモフラージュされた物体検出のための新しい特徴集約・伝播ネットワーク(FAP-Net)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:54:28Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - High-resolution Iterative Feedback Network for Camouflaged Object
Detection [128.893782016078]
カモフラージュされたオブジェクトを背景に視覚的に同化させることは、オブジェクト検出アルゴリズムにとって難しい。
エッジやバウンダリのぼやけた視界を生じさせる細部劣化を避けるために,高分解能テクスチャの詳細を抽出することを目的としている。
我々は,高解像度特徴量による低解像度表現を反復的フィードバック方式で洗練する新しいHitNetを提案する。
論文 参考訳(メタデータ) (2022-03-22T11:20:21Z) - Dense Relation Distillation with Context-aware Aggregation for Few-Shot
Object Detection [18.04185751827619]
新規なオブジェクトのきめ細かい特徴を、ほんのわずかなデータで簡単に見落としてしまうため、オブジェクト検出は困難である。
本稿では,少数の検出問題に対処するために,DCNet (Context-aware Aggregation) を用いたDense Relation Distillationを提案する。
論文 参考訳(メタデータ) (2021-03-30T05:34:49Z) - EDN: Salient Object Detection via Extremely-Downsampled Network [66.38046176176017]
画像全体のグローバルビューを効果的に学ぶために、極端なダウンサンプリング技術を使用するExtremely-Downsampled Network(EDN)を紹介します。
実験は、ednがリアルタイム速度でsart性能を達成することを実証する。
論文 参考訳(メタデータ) (2020-12-24T04:23:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。