論文の概要: Towards Accurate Camouflaged Object Detection with Mixture Convolution
and Interactive Fusion
- arxiv url: http://arxiv.org/abs/2101.05687v1
- Date: Thu, 14 Jan 2021 16:06:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-29 00:50:31.029058
- Title: Towards Accurate Camouflaged Object Detection with Mixture Convolution
and Interactive Fusion
- Title(参考訳): 混合畳み込みと相互融合による高精度カモフラージュ物体検出に向けて
- Authors: Bo Dong, Mingchen Zhuge, Yongxiong Wang, Hongbo Bi, Geng Chen
- Abstract要約: 大規模な受容領域と効果的な機能融合を統合フレームワークに統合した,新しいディープラーニングベースのCODアプローチを提案する。
本手法は, 広い受容領域から豊富なコンテキスト情報を集約する効果的な融合戦略により, 迷彩物体を検出する。
- 参考スコア(独自算出の注目度): 11.778147167153612
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Camouflaged object detection (COD), which aims to identify the objects that
conceal themselves into the surroundings, has recently drawn increasing
research efforts in the field of computer vision. In practice, the success of
deep learning based COD is mainly determined by two key factors, including (i)
A significantly large receptive field, which provides rich context information,
and (ii) An effective fusion strategy, which aggregates the rich multi-level
features for accurate COD. Motivated by these observations, in this paper, we
propose a novel deep learning based COD approach, which integrates the large
receptive field and effective feature fusion into a unified framework.
Specifically, we first extract multi-level features from a backbone network.
The resulting features are then fed to the proposed dual-branch mixture
convolution modules, each of which utilizes multiple asymmetric convolutional
layers and two dilated convolutional layers to extract rich context features
from a large receptive field. Finally, we fuse the features using
specially-designed multi-level interactive fusion modules, each of which
employs an attention mechanism along with feature interaction for effective
feature fusion. Our method detects camouflaged objects with an effective fusion
strategy, which aggregates the rich context information from a large receptive
field. All of these designs meet the requirements of COD well, allowing the
accurate detection of camouflaged objects. Extensive experiments on widely-used
benchmark datasets demonstrate that our method is capable of accurately
detecting camouflaged objects and outperforms the state-of-the-art methods.
- Abstract(参考訳): カモフラージュされた物体検出(COD)は、近ごろコンピュータビジョンの分野で研究が進められている。
実際には, 深層学習に基づくCODの成功は, (i) 豊かな文脈情報を提供する非常に大きな受容場, (ii) 正確なCODのためにリッチな多段階特徴を集約する効果的な融合戦略の2つの重要な要因によって決定される。
そこで,本論文では,大規模受容場と効果的な特徴融合を統一フレームワークに統合した,新しい深層学習に基づくcodアプローチを提案する。
具体的には、バックボーンネットワークからまずマルチレベル特徴を抽出する。
得られた特徴は、複数の非対称な畳み込み層と2つの拡張畳み込み層を利用して、大きな受容場からリッチなコンテキスト特徴を抽出する、提案された二重ブランチ混合畳み込みモジュールに供給される。
最後に、特殊設計の多層インタラクティブフュージョンモジュールを用いて特徴を融合させ、各モジュールは、効果的な特徴フュージョンのための機能相互作用とともに、アテンション機構を用いる。
本手法は,広い受容領域からリッチなコンテキスト情報を集約する効果的な融合戦略を用いて,迷彩物体を検出する。
これらの設計はすべてCODの要件を満たしており、カモフラージュされた物体の正確な検出を可能にする。
広範に使用されているベンチマークデータセットに対する大規模な実験により,本手法は精度よく偽造対象を検出し,最先端の手法より優れていることが示された。
関連論文リスト
- CoFiNet: Unveiling Camouflaged Objects with Multi-Scale Finesse [46.79770062391987]
本稿では,CoFiNetというカモフラージュ物体検出手法を提案する。
提案手法は,マルチスケールな特徴融合と抽出に重点を置いており,特にモデルのセグメンテーションの有効性に注目している。
CoFiNetは、すべてのデータセットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-03T17:24:55Z) - From Text to Pixels: A Context-Aware Semantic Synergy Solution for
Infrared and Visible Image Fusion [66.33467192279514]
我々は、テキスト記述から高レベルなセマンティクスを活用し、赤外線と可視画像のセマンティクスを統合するテキスト誘導多モード画像融合法を提案する。
本手法は,視覚的に優れた融合結果を生成するだけでなく,既存の手法よりも高い検出mAPを達成し,最先端の結果を得る。
論文 参考訳(メタデータ) (2023-12-31T08:13:47Z) - Exploiting Modality-Specific Features For Multi-Modal Manipulation
Detection And Grounding [54.49214267905562]
マルチモーダルな操作検出とグラウンド処理のためのトランスフォーマーベースのフレームワークを構築する。
本フレームワークは,マルチモーダルアライメントの能力を維持しながら,モダリティ特有の特徴を同時に探求する。
本稿では,グローバルな文脈的キューを各モーダル内に適応的に集約する暗黙的操作クエリ(IMQ)を提案する。
論文 参考訳(メタデータ) (2023-09-22T06:55:41Z) - ICAFusion: Iterative Cross-Attention Guided Feature Fusion for
Multispectral Object Detection [25.66305300362193]
大域的特徴相互作用をモデル化するために、二重対向変換器の新たな特徴融合フレームワークを提案する。
このフレームワークは、クエリ誘導のクロスアテンション機構を通じて、オブジェクトの特徴の識別性を高める。
提案手法は,様々なシナリオに適した性能と高速な推論を実現する。
論文 参考訳(メタデータ) (2023-08-15T00:02:10Z) - Feature Aggregation and Propagation Network for Camouflaged Object
Detection [42.33180748293329]
カモフラージュされたオブジェクト検出(COD)は、環境に埋め込まれたカモフラージュされたオブジェクトを検出し、分離することを目的としている。
いくつかのCOD法が開発されているが, 前景オブジェクトと背景環境との固有の類似性により, 依然として不満足な性能に悩まされている。
カモフラージュされた物体検出のための新しい特徴集約・伝播ネットワーク(FAP-Net)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:54:28Z) - Camouflaged Object Detection via Context-aware Cross-level Fusion [10.942917945534678]
カモフラージュされた物体検出(COD)は、自然界に隠れている物体を識別することを目的としている。
本稿では,コンテキスト認識型クロスレベル統合ネットワーク(C2F-Net)を提案する。
C2F-Netは効果的なCODモデルであり、最先端(SOTA)モデルよりも優れています。
論文 参考訳(メタデータ) (2022-07-27T08:34:16Z) - Target-aware Dual Adversarial Learning and a Multi-scenario
Multi-Modality Benchmark to Fuse Infrared and Visible for Object Detection [65.30079184700755]
本研究は、物体検出のために異なるように見える赤外線と可視画像の融合の問題に対処する。
従来のアプローチでは、2つのモダリティの根底にある共通点を発見し、反復最適化またはディープネットワークによって共通空間に融合する。
本稿では、融合と検出の連立問題に対する二段階最適化の定式化を提案し、その後、核融合と一般的に使用される検出ネットワークのためのターゲット認識デュアル逆学習(TarDAL)ネットワークに展開する。
論文 参考訳(メタデータ) (2022-03-30T11:44:56Z) - MBDF-Net: Multi-Branch Deep Fusion Network for 3D Object Detection [17.295359521427073]
3次元物体検出のためのMulti-Branch Deep Fusion Network (MBDF-Net)を提案する。
最初の段階では、マルチブランチ機能抽出ネットワークは、Adaptive Attention Fusionモジュールを使用して、単一モーダルなセマンティックな特徴からクロスモーダルな融合機能を生成する。
第2段階では、関心領域(RoI)をプールした核融合モジュールを用いて局所的な特徴を改良する。
論文 参考訳(メタデータ) (2021-08-29T15:40:15Z) - Specificity-preserving RGB-D Saliency Detection [103.3722116992476]
本稿では,RGB-Dサリエンシ検出のための特異性保存ネットワーク(SP-Net)を提案する。
2つのモダリティ特化ネットワークと共有学習ネットワークを採用し、個別および共有唾液マップを生成する。
6つのベンチマークデータセットの実験では、SP-Netは他の最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2021-08-18T14:14:22Z) - Cross-layer Feature Pyramid Network for Salient Object Detection [102.20031050972429]
本稿では,有能な物体検出における進行的融合を改善するために,新しいクロス層特徴ピラミッドネットワークを提案する。
レイヤごとの分散機能は、他のすべてのレイヤからセマンティクスと健全な詳細の両方を同時に所有し、重要な情報の損失を減らします。
論文 参考訳(メタデータ) (2020-02-25T14:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。