論文の概要: Camouflaged Object Detection via Context-aware Cross-level Fusion
- arxiv url: http://arxiv.org/abs/2207.13362v1
- Date: Wed, 27 Jul 2022 08:34:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-28 13:36:53.044183
- Title: Camouflaged Object Detection via Context-aware Cross-level Fusion
- Title(参考訳): コンテクストアウェアクロスレベル融合による迷彩物体検出
- Authors: Geng Chen, Si-Jie Liu, Yu-Jia Sun, Ge-Peng Ji, Ya-Feng Wu, Tao Zhou
- Abstract要約: カモフラージュされた物体検出(COD)は、自然界に隠れている物体を識別することを目的としている。
本稿では,コンテキスト認識型クロスレベル統合ネットワーク(C2F-Net)を提案する。
C2F-Netは効果的なCODモデルであり、最先端(SOTA)モデルよりも優れています。
- 参考スコア(独自算出の注目度): 10.942917945534678
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Camouflaged object detection (COD) aims to identify the objects that conceal
themselves in natural scenes. Accurate COD suffers from a number of challenges
associated with low boundary contrast and the large variation of object
appearances, e.g., object size and shape. To address these challenges, we
propose a novel Context-aware Cross-level Fusion Network (C2F-Net), which fuses
context-aware cross-level features for accurately identifying camouflaged
objects. Specifically, we compute informative attention coefficients from
multi-level features with our Attention-induced Cross-level Fusion Module
(ACFM), which further integrates the features under the guidance of attention
coefficients. We then propose a Dual-branch Global Context Module (DGCM) to
refine the fused features for informative feature representations by exploiting
rich global context information. Multiple ACFMs and DGCMs are integrated in a
cascaded manner for generating a coarse prediction from high-level features.
The coarse prediction acts as an attention map to refine the low-level features
before passing them to our Camouflage Inference Module (CIM) to generate the
final prediction. We perform extensive experiments on three widely used
benchmark datasets and compare C2F-Net with state-of-the-art (SOTA) models. The
results show that C2F-Net is an effective COD model and outperforms SOTA models
remarkably. Further, an evaluation on polyp segmentation datasets demonstrates
the promising potentials of our C2F-Net in COD downstream applications. Our
code is publicly available at: https://github.com/Ben57882/C2FNet-TSCVT.
- Abstract(参考訳): camouflaged object detection (cod) は自然界に隠れている物体を識別することを目的としている。
正確なCODは、境界のコントラストの低さや、オブジェクトのサイズや形状など、オブジェクトの外観の大きなばらつきに関連する多くの課題に悩まされている。
これらの課題に対処するために,コンテキスト認識型クロスレベルフュージョンネットワーク(C2F-Net)を提案する。
具体的には,注意係数の指導の下で機能をさらに統合する注意誘導クロスレベル融合モジュール (acfm) を用いて,多レベル特徴からの情報的注意係数を算出する。
次に,豊かなグローバルコンテキスト情報を活用し,情報的特徴表現のための融合特徴を洗練するためのdual-branch global context module (dgcm)を提案する。
複数のACFMとDGCMは、高レベルの特徴から粗い予測を生成するカスケード方式で統合される。
粗い予測は、カモフラージュ推論モジュール(CIM)に渡す前に、低レベルの特徴を洗練するための注意マップとして機能し、最終的な予測を生成する。
我々は、広く使われている3つのベンチマークデータセットについて広範な実験を行い、C2F-Netと最先端(SOTA)モデルを比較した。
その結果,C2F-NetはCODモデルとして有効であり,SOTAモデルよりも優れていた。
さらに,ポリプセグメンテーションデータセットの評価により,COD下流アプリケーションにおけるC2F-Netの可能性を示す。
私たちのコードは、https://github.com/Ben57882/C2FNet-TSCVT.comで公開されています。
関連論文リスト
- PVAFN: Point-Voxel Attention Fusion Network with Multi-Pooling Enhancing for 3D Object Detection [59.355022416218624]
点とボクセルの表現の統合は、LiDARベースの3Dオブジェクト検出においてより一般的になりつつある。
PVAFN(Point-Voxel Attention Fusion Network)と呼ばれる新しい2段3次元物体検出器を提案する。
PVAFNはマルチプール戦略を使用して、マルチスケールとリージョン固有の情報を効果的に統合する。
論文 参考訳(メタデータ) (2024-08-26T19:43:01Z) - CoFiNet: Unveiling Camouflaged Objects with Multi-Scale Finesse [46.79770062391987]
本稿では,CoFiNetというカモフラージュ物体検出手法を提案する。
提案手法は,マルチスケールな特徴融合と抽出に重点を置いており,特にモデルのセグメンテーションの有効性に注目している。
CoFiNetは、すべてのデータセットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-03T17:24:55Z) - Salient Object Detection in Optical Remote Sensing Images Driven by
Transformer [69.22039680783124]
光リモートセンシング画像(ORSI-SOD)のためのGlobal extract Local Exploration Network(GeleNet)を提案する。
具体的には、GeleNetはまずトランスフォーマーバックボーンを採用し、グローバルな長距離依存関係を持つ4レベルの機能埋め込みを生成する。
3つの公開データセットに関する大規模な実験は、提案されたGeleNetが関連する最先端メソッドより優れていることを示している。
論文 参考訳(メタデータ) (2023-09-15T07:14:43Z) - Frequency Perception Network for Camouflaged Object Detection [51.26386921922031]
周波数領域のセマンティック階層によって駆動される新しい学習可能かつ分離可能な周波数知覚機構を提案する。
ネットワーク全体では、周波数誘導粗い局所化ステージと細部保存の微細局在化ステージを含む2段階モデルを採用している。
提案手法は,既存のモデルと比較して,3つのベンチマークデータセットにおいて競合性能を実現する。
論文 参考訳(メタデータ) (2023-08-17T11:30:46Z) - Feature Aggregation and Propagation Network for Camouflaged Object
Detection [42.33180748293329]
カモフラージュされたオブジェクト検出(COD)は、環境に埋め込まれたカモフラージュされたオブジェクトを検出し、分離することを目的としている。
いくつかのCOD法が開発されているが, 前景オブジェクトと背景環境との固有の類似性により, 依然として不満足な性能に悩まされている。
カモフラージュされた物体検出のための新しい特徴集約・伝播ネットワーク(FAP-Net)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:54:28Z) - EPNet++: Cascade Bi-directional Fusion for Multi-Modal 3D Object
Detection [56.03081616213012]
本稿では,新しいCasscade Bi-directional Fusion(CB-Fusion)モジュールを導入することで,マルチモーダル3Dオブジェクト検出のためのEPNet++を提案する。
提案したCB-Fusionモジュールは、カスケード双方向相互作用融合方式で画像特徴と点特徴の豊富な意味情報を高める。
KITTI、JRDB、SUN-RGBDデータセットの実験結果は、最先端の手法よりもEPNet++の方が優れていることを示している。
論文 参考訳(メタデータ) (2021-12-21T10:48:34Z) - Context-aware Cross-level Fusion Network for Camouflaged Object
Detection [23.109969322128958]
本稿では,C2F-Net(Context-aware Cross-level Fusion Network)を提案する。
我々のC2F-Netは有効なCODモデルであり、最先端モデルよりも優れています。
論文 参考訳(メタデータ) (2021-05-26T14:03:36Z) - Towards Accurate Camouflaged Object Detection with Mixture Convolution and Interactive Fusion [45.45231015502287]
本稿では,大規模な受容場と効果的な特徴融合を統合されたフレームワークに統合する,新しい深層学習型COD手法を提案する。
提案手法は,大規模な受容場からのリッチなコンテキスト情報を集約する,効果的な融合戦略により,カモフラージュされた物体を検出する。
論文 参考訳(メタデータ) (2021-01-14T16:06:08Z) - Learning Selective Mutual Attention and Contrast for RGB-D Saliency
Detection [145.4919781325014]
クロスモーダル情報を効果的に融合する方法は、RGB-Dの有能な物体検出の鍵となる問題である。
多くのモデルは特徴融合戦略を用いるが、低次点対点融合法によって制限されている。
本研究では,異なるモダリティから注目とコンテキストを融合させることにより,新たな相互注意モデルを提案する。
論文 参考訳(メタデータ) (2020-10-12T08:50:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。