論文の概要: Feature Aggregation and Propagation Network for Camouflaged Object
Detection
- arxiv url: http://arxiv.org/abs/2212.00990v1
- Date: Fri, 2 Dec 2022 05:54:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 16:48:54.563062
- Title: Feature Aggregation and Propagation Network for Camouflaged Object
Detection
- Title(参考訳): カモフラージュ物体検出のための特徴集約と伝播ネットワーク
- Authors: Tao Zhou, Yi Zhou, Chen Gong, Jian Yang, Yu Zhang
- Abstract要約: カモフラージュされたオブジェクト検出(COD)は、環境に埋め込まれたカモフラージュされたオブジェクトを検出し、分離することを目的としている。
いくつかのCOD法が開発されているが, 前景オブジェクトと背景環境との固有の類似性により, 依然として不満足な性能に悩まされている。
カモフラージュされた物体検出のための新しい特徴集約・伝播ネットワーク(FAP-Net)を提案する。
- 参考スコア(独自算出の注目度): 42.33180748293329
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Camouflaged object detection (COD) aims to detect/segment camouflaged objects
embedded in the environment, which has attracted increasing attention over the
past decades. Although several COD methods have been developed, they still
suffer from unsatisfactory performance due to the intrinsic similarities
between the foreground objects and background surroundings. In this paper, we
propose a novel Feature Aggregation and Propagation Network (FAP-Net) for
camouflaged object detection. Specifically, we propose a Boundary Guidance
Module (BGM) to explicitly model the boundary characteristic, which can provide
boundary-enhanced features to boost the COD performance. To capture the scale
variations of the camouflaged objects, we propose a Multi-scale Feature
Aggregation Module (MFAM) to characterize the multi-scale information from each
layer and obtain the aggregated feature representations. Furthermore, we
propose a Cross-level Fusion and Propagation Module (CFPM). In the CFPM, the
feature fusion part can effectively integrate the features from adjacent layers
to exploit the cross-level correlations, and the feature propagation part can
transmit valuable context information from the encoder to the decoder network
via a gate unit. Finally, we formulate a unified and end-to-end trainable
framework where cross-level features can be effectively fused and propagated
for capturing rich context information. Extensive experiments on three
benchmark camouflaged datasets demonstrate that our FAP-Net outperforms other
state-of-the-art COD models. Moreover, our model can be extended to the polyp
segmentation task, and the comparison results further validate the
effectiveness of the proposed model in segmenting polyps. The source code and
results will be released at https://github.com/taozh2017/FAPNet.
- Abstract(参考訳): camouflaged object detection (cod) は環境に埋め込まれたcamouflaged objectsの検出/配信を目的としている。
いくつかのcod手法が開発されているが、フォアグラウンドオブジェクトと背景の類似性のため、まだ不十分な性能に苦しめられている。
本稿では,カモフラージュ物体検出のためのFAP-Net(Feature Aggregation and Propagation Network)を提案する。
具体的には,境界特性を明示的にモデル化する境界誘導モジュール (BGM) を提案する。
カモフラージュされたオブジェクトのスケール変動を捉えるために,各レイヤからのマルチスケール情報を特徴付けるマルチスケール特徴集合モジュール (MFAM) を提案し,集約された特徴表現を得る。
さらに,クロスレベル核融合・伝播モジュール (CFPM) を提案する。
CFPMにおいて、特徴融合部は、隣接する層からの特徴を効果的に統合してクロスレベル相関を利用することができ、特徴伝搬部は、エンコーダからゲートユニットを介してデコーダネットワークに貴重なコンテキスト情報を送信することができる。
最後に、リッチなコンテキスト情報をキャプチャするために、クロスレベル機能を効果的に融合し、伝播できる統一的でエンドツーエンドのトレーニング可能なフレームワークを定式化します。
3つのベンチマークカモフラージュデータセットに関する広範な実験は、fap-netが他の最先端codモデルよりも優れていることを示している。
さらに,本モデルは,ポリプ分割タスクに拡張可能であり,比較結果は,セグメント分割におけるモデルの有効性をさらに検証する。
ソースコードと結果はhttps://github.com/taozh2017/fapnetで公開される。
関連論文リスト
- Hierarchical Graph Interaction Transformer with Dynamic Token Clustering for Camouflaged Object Detection [57.883265488038134]
本稿では,HGINetと呼ばれる階層的なグラフ相互作用ネットワークを提案する。
このネットワークは、階層的トークン化機能間の効果的なグラフ相互作用を通じて、知覚不能なオブジェクトを発見することができる。
本実験は,既存の最先端手法と比較して,HGINetの優れた性能を示すものである。
論文 参考訳(メタデータ) (2024-08-27T12:53:25Z) - CoFiNet: Unveiling Camouflaged Objects with Multi-Scale Finesse [46.79770062391987]
本稿では,CoFiNetというカモフラージュ物体検出手法を提案する。
提案手法は,マルチスケールな特徴融合と抽出に重点を置いており,特にモデルのセグメンテーションの有効性に注目している。
CoFiNetは、すべてのデータセットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-03T17:24:55Z) - Unveiling Camouflage: A Learnable Fourier-based Augmentation for
Camouflaged Object Detection and Instance Segmentation [27.41886911999097]
本稿では,camouflaged object detection (COD) とcamouflaged instance segmentation (CIS) の学習可能な拡張法を提案する。
提案手法は,カモフラージュされた対象検出器とカモフラーグされたインスタンスセグメンタの性能を大きなマージンで向上させる。
論文 参考訳(メタデータ) (2023-08-29T22:43:46Z) - Frequency Perception Network for Camouflaged Object Detection [51.26386921922031]
周波数領域のセマンティック階層によって駆動される新しい学習可能かつ分離可能な周波数知覚機構を提案する。
ネットワーク全体では、周波数誘導粗い局所化ステージと細部保存の微細局在化ステージを含む2段階モデルを採用している。
提案手法は,既存のモデルと比較して,3つのベンチマークデータセットにおいて競合性能を実現する。
論文 参考訳(メタデータ) (2023-08-17T11:30:46Z) - DQnet: Cross-Model Detail Querying for Camouflaged Object Detection [54.82390534024954]
カモフラージュされた物体検出のための畳み込みニューラルネットワーク(CNN)は、完全な対象範囲を無視しながら局所的な識別領域を活性化する傾向がある。
本稿では,CNNの内在的特性から部分的活性化が引き起こされることを論じる。
完全なオブジェクト範囲を活性化できる特徴マップを得るために,クロスモデル詳細クエリネットワーク(DQnet)と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-16T06:23:58Z) - Camouflaged Object Detection via Context-aware Cross-level Fusion [10.942917945534678]
カモフラージュされた物体検出(COD)は、自然界に隠れている物体を識別することを目的としている。
本稿では,コンテキスト認識型クロスレベル統合ネットワーク(C2F-Net)を提案する。
C2F-Netは効果的なCODモデルであり、最先端(SOTA)モデルよりも優れています。
論文 参考訳(メタデータ) (2022-07-27T08:34:16Z) - Towards Accurate Camouflaged Object Detection with Mixture Convolution and Interactive Fusion [45.45231015502287]
本稿では,大規模な受容場と効果的な特徴融合を統合されたフレームワークに統合する,新しい深層学習型COD手法を提案する。
提案手法は,大規模な受容場からのリッチなコンテキスト情報を集約する,効果的な融合戦略により,カモフラージュされた物体を検出する。
論文 参考訳(メタデータ) (2021-01-14T16:06:08Z) - Cross-layer Feature Pyramid Network for Salient Object Detection [102.20031050972429]
本稿では,有能な物体検出における進行的融合を改善するために,新しいクロス層特徴ピラミッドネットワークを提案する。
レイヤごとの分散機能は、他のすべてのレイヤからセマンティクスと健全な詳細の両方を同時に所有し、重要な情報の損失を減らします。
論文 参考訳(メタデータ) (2020-02-25T14:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。