論文の概要: Towards Accurate Camouflaged Object Detection with Mixture Convolution
and Interactive Fusion
- arxiv url: http://arxiv.org/abs/2101.05687v1
- Date: Thu, 14 Jan 2021 16:06:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-29 00:50:31.029058
- Title: Towards Accurate Camouflaged Object Detection with Mixture Convolution
and Interactive Fusion
- Title(参考訳): 混合畳み込みと相互融合による高精度カモフラージュ物体検出に向けて
- Authors: Bo Dong, Mingchen Zhuge, Yongxiong Wang, Hongbo Bi, Geng Chen
- Abstract要約: 大規模な受容領域と効果的な機能融合を統合フレームワークに統合した,新しいディープラーニングベースのCODアプローチを提案する。
本手法は, 広い受容領域から豊富なコンテキスト情報を集約する効果的な融合戦略により, 迷彩物体を検出する。
- 参考スコア(独自算出の注目度): 11.778147167153612
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Camouflaged object detection (COD), which aims to identify the objects that
conceal themselves into the surroundings, has recently drawn increasing
research efforts in the field of computer vision. In practice, the success of
deep learning based COD is mainly determined by two key factors, including (i)
A significantly large receptive field, which provides rich context information,
and (ii) An effective fusion strategy, which aggregates the rich multi-level
features for accurate COD. Motivated by these observations, in this paper, we
propose a novel deep learning based COD approach, which integrates the large
receptive field and effective feature fusion into a unified framework.
Specifically, we first extract multi-level features from a backbone network.
The resulting features are then fed to the proposed dual-branch mixture
convolution modules, each of which utilizes multiple asymmetric convolutional
layers and two dilated convolutional layers to extract rich context features
from a large receptive field. Finally, we fuse the features using
specially-designed multi-level interactive fusion modules, each of which
employs an attention mechanism along with feature interaction for effective
feature fusion. Our method detects camouflaged objects with an effective fusion
strategy, which aggregates the rich context information from a large receptive
field. All of these designs meet the requirements of COD well, allowing the
accurate detection of camouflaged objects. Extensive experiments on widely-used
benchmark datasets demonstrate that our method is capable of accurately
detecting camouflaged objects and outperforms the state-of-the-art methods.
- Abstract(参考訳): カモフラージュされた物体検出(COD)は、近ごろコンピュータビジョンの分野で研究が進められている。
実際には, 深層学習に基づくCODの成功は, (i) 豊かな文脈情報を提供する非常に大きな受容場, (ii) 正確なCODのためにリッチな多段階特徴を集約する効果的な融合戦略の2つの重要な要因によって決定される。
そこで,本論文では,大規模受容場と効果的な特徴融合を統一フレームワークに統合した,新しい深層学習に基づくcodアプローチを提案する。
具体的には、バックボーンネットワークからまずマルチレベル特徴を抽出する。
得られた特徴は、複数の非対称な畳み込み層と2つの拡張畳み込み層を利用して、大きな受容場からリッチなコンテキスト特徴を抽出する、提案された二重ブランチ混合畳み込みモジュールに供給される。
最後に、特殊設計の多層インタラクティブフュージョンモジュールを用いて特徴を融合させ、各モジュールは、効果的な特徴フュージョンのための機能相互作用とともに、アテンション機構を用いる。
本手法は,広い受容領域からリッチなコンテキスト情報を集約する効果的な融合戦略を用いて,迷彩物体を検出する。
これらの設計はすべてCODの要件を満たしており、カモフラージュされた物体の正確な検出を可能にする。
広範に使用されているベンチマークデータセットに対する大規模な実験により,本手法は精度よく偽造対象を検出し,最先端の手法より優れていることが示された。
関連論文リスト
- GLCONet: Learning Multi-source Perception Representation for Camouflaged Object Detection [23.872633359324098]
我々はGLCONetと呼ばれる新しいグローバルローカル協調最適化ネットワークを提案する。
本稿では、まず、局所的な詳細とグローバルな長距離関係を同時にモデル化するための協調最適化戦略を設計する。
実験により、異なるバックボーンを持つGLCONet法は、画像中の潜在的に重要なピクセルを効果的に活性化できることが示されている。
論文 参考訳(メタデータ) (2024-09-15T02:26:17Z) - Fusion-Mamba for Cross-modality Object Detection [63.56296480951342]
異なるモダリティから情報を融合するクロスモダリティは、オブジェクト検出性能を効果的に向上させる。
We design a Fusion-Mamba block (FMB) to map cross-modal features into a hidden state space for interaction。
提案手法は,m3FD$が5.9%,FLIRデータセットが4.9%,m3FD$が5.9%である。
論文 参考訳(メタデータ) (2024-04-14T05:28:46Z) - CoFiNet: Unveiling Camouflaged Objects with Multi-Scale Finesse [46.79770062391987]
本稿では,CoFiNetというカモフラージュ物体検出手法を提案する。
提案手法は,マルチスケールな特徴融合と抽出に重点を置いており,特にモデルのセグメンテーションの有効性に注目している。
CoFiNetは、すべてのデータセットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-03T17:24:55Z) - From Text to Pixels: A Context-Aware Semantic Synergy Solution for
Infrared and Visible Image Fusion [66.33467192279514]
我々は、テキスト記述から高レベルなセマンティクスを活用し、赤外線と可視画像のセマンティクスを統合するテキスト誘導多モード画像融合法を提案する。
本手法は,視覚的に優れた融合結果を生成するだけでなく,既存の手法よりも高い検出mAPを達成し,最先端の結果を得る。
論文 参考訳(メタデータ) (2023-12-31T08:13:47Z) - Feature Aggregation and Propagation Network for Camouflaged Object
Detection [42.33180748293329]
カモフラージュされたオブジェクト検出(COD)は、環境に埋め込まれたカモフラージュされたオブジェクトを検出し、分離することを目的としている。
いくつかのCOD法が開発されているが, 前景オブジェクトと背景環境との固有の類似性により, 依然として不満足な性能に悩まされている。
カモフラージュされた物体検出のための新しい特徴集約・伝播ネットワーク(FAP-Net)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:54:28Z) - Camouflaged Object Detection via Context-aware Cross-level Fusion [10.942917945534678]
カモフラージュされた物体検出(COD)は、自然界に隠れている物体を識別することを目的としている。
本稿では,コンテキスト認識型クロスレベル統合ネットワーク(C2F-Net)を提案する。
C2F-Netは効果的なCODモデルであり、最先端(SOTA)モデルよりも優れています。
論文 参考訳(メタデータ) (2022-07-27T08:34:16Z) - Target-aware Dual Adversarial Learning and a Multi-scenario
Multi-Modality Benchmark to Fuse Infrared and Visible for Object Detection [65.30079184700755]
本研究は、物体検出のために異なるように見える赤外線と可視画像の融合の問題に対処する。
従来のアプローチでは、2つのモダリティの根底にある共通点を発見し、反復最適化またはディープネットワークによって共通空間に融合する。
本稿では、融合と検出の連立問題に対する二段階最適化の定式化を提案し、その後、核融合と一般的に使用される検出ネットワークのためのターゲット認識デュアル逆学習(TarDAL)ネットワークに展開する。
論文 参考訳(メタデータ) (2022-03-30T11:44:56Z) - MBDF-Net: Multi-Branch Deep Fusion Network for 3D Object Detection [17.295359521427073]
3次元物体検出のためのMulti-Branch Deep Fusion Network (MBDF-Net)を提案する。
最初の段階では、マルチブランチ機能抽出ネットワークは、Adaptive Attention Fusionモジュールを使用して、単一モーダルなセマンティックな特徴からクロスモーダルな融合機能を生成する。
第2段階では、関心領域(RoI)をプールした核融合モジュールを用いて局所的な特徴を改良する。
論文 参考訳(メタデータ) (2021-08-29T15:40:15Z) - Cross-layer Feature Pyramid Network for Salient Object Detection [102.20031050972429]
本稿では,有能な物体検出における進行的融合を改善するために,新しいクロス層特徴ピラミッドネットワークを提案する。
レイヤごとの分散機能は、他のすべてのレイヤからセマンティクスと健全な詳細の両方を同時に所有し、重要な情報の損失を減らします。
論文 参考訳(メタデータ) (2020-02-25T14:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。