論文の概要: MFFN: Multi-view Feature Fusion Network for Camouflaged Object Detection
- arxiv url: http://arxiv.org/abs/2210.06361v1
- Date: Wed, 12 Oct 2022 16:12:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 15:06:23.019945
- Title: MFFN: Multi-view Feature Fusion Network for Camouflaged Object Detection
- Title(参考訳): mffn:camouflaged object detectionのためのマルチビュー機能融合ネットワーク
- Authors: Dehua Zheng, Xiaochen Zheng, Laurence T. Yang, Yuan Gao, Chenlu Zhu
and Yiheng Ruan
- Abstract要約: 画像中の不明瞭な物体を見つける人間の振る舞いを模倣する,Multi-view Feature Fusion Network (MFFN) と呼ばれる行動に触発されたフレームワークを提案する。
MFFNは抽出したマルチビュー特徴を比較し、融合することにより、重要なエッジとセマンティック情報をキャプチャする。
提案手法は,同一データを用いたトレーニングにより,既存の最先端手法に対して良好に機能する。
- 参考スコア(独自算出の注目度): 10.04773536815808
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent research about camouflaged object detection (COD) aims to segment
highly concealed objects hidden in complex surroundings. The tiny, fuzzy
camouflaged objects result in visually indistinguishable properties. However,
current single-view COD detectors are sensitive to background distractors.
Therefore, blurred boundaries and variable shapes of the camouflaged objects
are challenging to be fully captured with a single-view detector. To overcome
these obstacles, we propose a behavior-inspired framework, called Multi-view
Feature Fusion Network (MFFN), which mimics the human behaviors of finding
indistinct objects in images, i.e., observing from multiple angles, distances,
perspectives. Specifically, the key idea behind it is to generate multiple ways
of observation (multi-view) by data augmentation and apply them as inputs. MFFN
captures critical edge and semantic information by comparing and fusing
extracted multi-view features. In addition, our MFFN exploits the dependence
and interaction between views by the designed hierarchical view and channel
integration modules. Furthermore, our methods leverage the complementary
information between different views through a two-stage attention module called
Co-attention of Multi-view (CAMV). And we designed a local-overall module
called Channel Fusion Unit (CFU) to explore the channel-wise contextual clues
of diverse feature maps in an iterative manner. The experiment results show
that our method performs favorably against existing state-of-the-art methods
via training with the same data. The code will be available at https:
//github.com/dwardzheng/MFFN_COD.
- Abstract(参考訳): camouflaged object detection (cod) に関する最近の研究は、複雑な周囲に隠された高い隠されたオブジェクトを分割することを目的としている。
小さなファジィなカモフラージュされた物体は、視覚的に区別できない特性をもたらす。
しかし、現在のシングルビューCOD検出器は背景散乱器に敏感である。
したがって、カモフラージュされた物体のぼやけた境界と可変形状は、単一視野検出器で完全に捕捉することが困難である。
これらの障害を克服するために,多視点特徴融合ネットワーク (mffn) と呼ばれる,画像中の不明瞭な物体,すなわち多角,距離,視点から観察する人間の動作を模倣する手法を提案する。
具体的には、データ拡張によって複数の観察方法(マルチビュー)を生成し、それらを入力として適用する。
MFFNは抽出したマルチビュー特徴を比較し、融合することにより、重要なエッジとセマンティック情報をキャプチャする。
さらに、我々のMFFNは、設計した階層ビューとチャネル統合モジュールによるビュー間の依存と相互作用を利用する。
さらに,マルチビューの協調 (co-attention of multi-view, camv) と呼ばれる2段階アテンションモジュールを用いて,異なるビュー間の補完情報を活用する。
channel fusion unit (cfu) と呼ばれるローカルオーバーオールモジュールを設計し、様々な特徴マップのチャンネル毎の文脈的手がかりを反復的に探索した。
実験の結果,本手法は同一データを用いたトレーニングにより,既存の最先端手法に対して良好に機能することがわかった。
コードはhttps: //github.com/dwardzheng/MFFN_CODで入手できる。
関連論文リスト
- CoFiNet: Unveiling Camouflaged Objects with Multi-Scale Finesse [46.79770062391987]
本稿では,CoFiNetというカモフラージュ物体検出手法を提案する。
提案手法は,マルチスケールな特徴融合と抽出に重点を置いており,特にモデルのセグメンテーションの有効性に注目している。
CoFiNetは、すべてのデータセットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-03T17:24:55Z) - ZoomNeXt: A Unified Collaborative Pyramid Network for Camouflaged Object Detection [70.11264880907652]
最近のオブジェクト(COD)は、現実のシナリオでは極めて複雑で難しい、視覚的にブレンドされたオブジェクトを周囲に分割しようと試みている。
本研究では,不明瞭な画像を観察したり,ズームインしたりアウトしたりする際の人間の行動を模倣する,効果的な統合協調ピラミッドネットワークを提案する。
我々のフレームワークは、画像とビデオのCODベンチマークにおいて、既存の最先端の手法を一貫して上回っている。
論文 参考訳(メタデータ) (2023-10-31T06:11:23Z) - Camouflaged Object Detection with Feature Grafting and Distractor Aware [9.791590363932519]
そこで我々は,Camouflaged Object Detectionタスクを処理するために,FDNet(Feature Grafting and Distractor Aware Network)を提案する。
具体的には、CNNとTransformerを使ってマルチスケール画像を並列にエンコードする。
Distractor Aware Moduleは、CODタスクで考えられる2つの障害を明示的にモデル化して、粗いカモフラージュマップを洗練させるように設計されている。
論文 参考訳(メタデータ) (2023-07-08T09:37:08Z) - Detector Guidance for Multi-Object Text-to-Image Generation [61.70018793720616]
Detector Guidance(DG)は、潜在オブジェクト検出モデルを統合して、生成プロセス中に異なるオブジェクトを分離する。
人間の評価は、DGが対立する概念の融合を防ぐのに8-22%の利点をもたらすことを示した。
論文 参考訳(メタデータ) (2023-06-04T02:33:12Z) - CamoFormer: Masked Separable Attention for Camouflaged Object Detection [94.2870722866853]
カモフラージュされた物体検出のための単純なマスク付き分離型注意(MSA)を提案する。
まず,マルチヘッド・セルフアテンションを3つの部分に分割し,異なるマスキング戦略を用いて,背景からカモフラージュした物体を識別する役割を担っている。
提案手法では,MSAを用いた単純なトップダウンデコーダを用いて,高精度なセグメンテーション結果を得るために,高分解能なセグメンテーション表現を段階的にキャプチャする。
論文 参考訳(メタデータ) (2022-12-10T10:03:27Z) - Feature Aggregation and Propagation Network for Camouflaged Object
Detection [42.33180748293329]
カモフラージュされたオブジェクト検出(COD)は、環境に埋め込まれたカモフラージュされたオブジェクトを検出し、分離することを目的としている。
いくつかのCOD法が開発されているが, 前景オブジェクトと背景環境との固有の類似性により, 依然として不満足な性能に悩まされている。
カモフラージュされた物体検出のための新しい特徴集約・伝播ネットワーク(FAP-Net)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:54:28Z) - A Simple Baseline for Multi-Camera 3D Object Detection [94.63944826540491]
周囲のカメラで3Dオブジェクトを検出することは、自動運転にとって有望な方向だ。
マルチカメラオブジェクト検出のための簡易ベースラインであるSimMODを提案する。
我々は, nuScenes の3次元オブジェクト検出ベンチマークにおいて, SimMOD の有効性を示す広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-08-22T03:38:01Z) - Multi-modal Transformers Excel at Class-agnostic Object Detection [105.10403103027306]
既存の手法では、人間の理解可能な意味論によって支配されるトップダウンの監視信号が欠落していると論じる。
マルチスケール特徴処理と変形可能な自己アテンションを用いた効率よく柔軟なMViTアーキテクチャを開発した。
多様なアプリケーションにおけるMViT提案の重要性を示す。
論文 参考訳(メタデータ) (2021-11-22T18:59:29Z) - Towards Accurate Camouflaged Object Detection with Mixture Convolution and Interactive Fusion [45.45231015502287]
本稿では,大規模な受容場と効果的な特徴融合を統合されたフレームワークに統合する,新しい深層学習型COD手法を提案する。
提案手法は,大規模な受容場からのリッチなコンテキスト情報を集約する,効果的な融合戦略により,カモフラージュされた物体を検出する。
論文 参考訳(メタデータ) (2021-01-14T16:06:08Z) - Multiview Detection with Feature Perspective Transformation [59.34619548026885]
本稿では,新しいマルチビュー検出システムMVDetを提案する。
我々は,平面上に特徴写像を投影することで,多視点情報を集約するアンカーフリーアプローチを採っている。
私たちのモデル全体がエンドツーエンドで学習可能で、標準のWildtrackデータセットで88.2%のMODAを実現しています。
論文 参考訳(メタデータ) (2020-07-14T17:58:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。