論文の概要: Feature Aggregation and Propagation Network for Camouflaged Object
Detection
- arxiv url: http://arxiv.org/abs/2212.00990v1
- Date: Fri, 2 Dec 2022 05:54:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 16:48:54.563062
- Title: Feature Aggregation and Propagation Network for Camouflaged Object
Detection
- Title(参考訳): カモフラージュ物体検出のための特徴集約と伝播ネットワーク
- Authors: Tao Zhou, Yi Zhou, Chen Gong, Jian Yang, Yu Zhang
- Abstract要約: カモフラージュされたオブジェクト検出(COD)は、環境に埋め込まれたカモフラージュされたオブジェクトを検出し、分離することを目的としている。
いくつかのCOD法が開発されているが, 前景オブジェクトと背景環境との固有の類似性により, 依然として不満足な性能に悩まされている。
カモフラージュされた物体検出のための新しい特徴集約・伝播ネットワーク(FAP-Net)を提案する。
- 参考スコア(独自算出の注目度): 42.33180748293329
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Camouflaged object detection (COD) aims to detect/segment camouflaged objects
embedded in the environment, which has attracted increasing attention over the
past decades. Although several COD methods have been developed, they still
suffer from unsatisfactory performance due to the intrinsic similarities
between the foreground objects and background surroundings. In this paper, we
propose a novel Feature Aggregation and Propagation Network (FAP-Net) for
camouflaged object detection. Specifically, we propose a Boundary Guidance
Module (BGM) to explicitly model the boundary characteristic, which can provide
boundary-enhanced features to boost the COD performance. To capture the scale
variations of the camouflaged objects, we propose a Multi-scale Feature
Aggregation Module (MFAM) to characterize the multi-scale information from each
layer and obtain the aggregated feature representations. Furthermore, we
propose a Cross-level Fusion and Propagation Module (CFPM). In the CFPM, the
feature fusion part can effectively integrate the features from adjacent layers
to exploit the cross-level correlations, and the feature propagation part can
transmit valuable context information from the encoder to the decoder network
via a gate unit. Finally, we formulate a unified and end-to-end trainable
framework where cross-level features can be effectively fused and propagated
for capturing rich context information. Extensive experiments on three
benchmark camouflaged datasets demonstrate that our FAP-Net outperforms other
state-of-the-art COD models. Moreover, our model can be extended to the polyp
segmentation task, and the comparison results further validate the
effectiveness of the proposed model in segmenting polyps. The source code and
results will be released at https://github.com/taozh2017/FAPNet.
- Abstract(参考訳): camouflaged object detection (cod) は環境に埋め込まれたcamouflaged objectsの検出/配信を目的としている。
いくつかのcod手法が開発されているが、フォアグラウンドオブジェクトと背景の類似性のため、まだ不十分な性能に苦しめられている。
本稿では,カモフラージュ物体検出のためのFAP-Net(Feature Aggregation and Propagation Network)を提案する。
具体的には,境界特性を明示的にモデル化する境界誘導モジュール (BGM) を提案する。
カモフラージュされたオブジェクトのスケール変動を捉えるために,各レイヤからのマルチスケール情報を特徴付けるマルチスケール特徴集合モジュール (MFAM) を提案し,集約された特徴表現を得る。
さらに,クロスレベル核融合・伝播モジュール (CFPM) を提案する。
CFPMにおいて、特徴融合部は、隣接する層からの特徴を効果的に統合してクロスレベル相関を利用することができ、特徴伝搬部は、エンコーダからゲートユニットを介してデコーダネットワークに貴重なコンテキスト情報を送信することができる。
最後に、リッチなコンテキスト情報をキャプチャするために、クロスレベル機能を効果的に融合し、伝播できる統一的でエンドツーエンドのトレーニング可能なフレームワークを定式化します。
3つのベンチマークカモフラージュデータセットに関する広範な実験は、fap-netが他の最先端codモデルよりも優れていることを示している。
さらに,本モデルは,ポリプ分割タスクに拡張可能であり,比較結果は,セグメント分割におけるモデルの有効性をさらに検証する。
ソースコードと結果はhttps://github.com/taozh2017/fapnetで公開される。
関連論文リスト
- CoFiNet: Unveiling Camouflaged Objects with Multi-Scale Finesse [46.79770062391987]
本稿では,CoFiNetというカモフラージュ物体検出手法を提案する。
提案手法は,マルチスケールな特徴融合と抽出に重点を置いており,特にモデルのセグメンテーションの有効性に注目している。
CoFiNetは、すべてのデータセットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-03T17:24:55Z) - Unveiling Camouflage: A Learnable Fourier-based Augmentation for
Camouflaged Object Detection and Instance Segmentation [27.41886911999097]
本稿では,camouflaged object detection (COD) とcamouflaged instance segmentation (CIS) の学習可能な拡張法を提案する。
提案手法は,カモフラージュされた対象検出器とカモフラーグされたインスタンスセグメンタの性能を大きなマージンで向上させる。
論文 参考訳(メタデータ) (2023-08-29T22:43:46Z) - Frequency Perception Network for Camouflaged Object Detection [51.26386921922031]
周波数領域のセマンティック階層によって駆動される新しい学習可能かつ分離可能な周波数知覚機構を提案する。
ネットワーク全体では、周波数誘導粗い局所化ステージと細部保存の微細局在化ステージを含む2段階モデルを採用している。
提案手法は,既存のモデルと比較して,3つのベンチマークデータセットにおいて競合性能を実現する。
論文 参考訳(メタデータ) (2023-08-17T11:30:46Z) - DQnet: Cross-Model Detail Querying for Camouflaged Object Detection [54.82390534024954]
カモフラージュされた物体検出のための畳み込みニューラルネットワーク(CNN)は、完全な対象範囲を無視しながら局所的な識別領域を活性化する傾向がある。
本稿では,CNNの内在的特性から部分的活性化が引き起こされることを論じる。
完全なオブジェクト範囲を活性化できる特徴マップを得るために,クロスモデル詳細クエリネットワーク(DQnet)と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-16T06:23:58Z) - MFFN: Multi-view Feature Fusion Network for Camouflaged Object Detection [10.04773536815808]
画像中の不明瞭な物体を見つける人間の振る舞いを模倣する,Multi-view Feature Fusion Network (MFFN) と呼ばれる行動に触発されたフレームワークを提案する。
MFFNは抽出したマルチビュー特徴を比較し、融合することにより、重要なエッジとセマンティック情報をキャプチャする。
提案手法は,同一データを用いたトレーニングにより,既存の最先端手法に対して良好に機能する。
論文 参考訳(メタデータ) (2022-10-12T16:12:58Z) - Camouflaged Object Detection via Context-aware Cross-level Fusion [10.942917945534678]
カモフラージュされた物体検出(COD)は、自然界に隠れている物体を識別することを目的としている。
本稿では,コンテキスト認識型クロスレベル統合ネットワーク(C2F-Net)を提案する。
C2F-Netは効果的なCODモデルであり、最先端(SOTA)モデルよりも優れています。
論文 参考訳(メタデータ) (2022-07-27T08:34:16Z) - Specificity-preserving RGB-D Saliency Detection [103.3722116992476]
本稿では,RGB-Dサリエンシ検出のための特異性保存ネットワーク(SP-Net)を提案する。
2つのモダリティ特化ネットワークと共有学習ネットワークを採用し、個別および共有唾液マップを生成する。
6つのベンチマークデータセットの実験では、SP-Netは他の最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2021-08-18T14:14:22Z) - Towards Accurate Camouflaged Object Detection with Mixture Convolution
and Interactive Fusion [11.778147167153612]
大規模な受容領域と効果的な機能融合を統合フレームワークに統合した,新しいディープラーニングベースのCODアプローチを提案する。
本手法は, 広い受容領域から豊富なコンテキスト情報を集約する効果的な融合戦略により, 迷彩物体を検出する。
論文 参考訳(メタデータ) (2021-01-14T16:06:08Z) - Cross-layer Feature Pyramid Network for Salient Object Detection [102.20031050972429]
本稿では,有能な物体検出における進行的融合を改善するために,新しいクロス層特徴ピラミッドネットワークを提案する。
レイヤごとの分散機能は、他のすべてのレイヤからセマンティクスと健全な詳細の両方を同時に所有し、重要な情報の損失を減らします。
論文 参考訳(メタデータ) (2020-02-25T14:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。