論文の概要: Camouflaged Object Detection with Feature Grafting and Distractor Aware
- arxiv url: http://arxiv.org/abs/2307.03943v1
- Date: Sat, 8 Jul 2023 09:37:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-11 16:28:41.147206
- Title: Camouflaged Object Detection with Feature Grafting and Distractor Aware
- Title(参考訳): 特徴グラフトと気晴らし認識を用いたカモフラージュ物体検出
- Authors: Yuxuan Song and Xinyue Li and Lin Qi
- Abstract要約: そこで我々は,Camouflaged Object Detectionタスクを処理するために,FDNet(Feature Grafting and Distractor Aware Network)を提案する。
具体的には、CNNとTransformerを使ってマルチスケール画像を並列にエンコードする。
Distractor Aware Moduleは、CODタスクで考えられる2つの障害を明示的にモデル化して、粗いカモフラージュマップを洗練させるように設計されている。
- 参考スコア(独自算出の注目度): 9.791590363932519
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The task of Camouflaged Object Detection (COD) aims to accurately segment
camouflaged objects that integrated into the environment, which is more
challenging than ordinary detection as the texture between the target and
background is visually indistinguishable. In this paper, we proposed a novel
Feature Grafting and Distractor Aware network (FDNet) to handle the COD task.
Specifically, we use CNN and Transformer to encode multi-scale images in
parallel. In order to better explore the advantages of the two encoders, we
design a cross-attention-based Feature Grafting Module to graft features
extracted from Transformer branch into CNN branch, after which the features are
aggregated in the Feature Fusion Module. A Distractor Aware Module is designed
to explicitly model the two possible distractors in the COD task to refine the
coarse camouflage map. We also proposed the largest artificial camouflaged
object dataset which contains 2000 images with annotations, named ACOD2K. We
conducted extensive experiments on four widely used benchmark datasets and the
ACOD2K dataset. The results show that our method significantly outperforms
other state-of-the-art methods. The code and the ACOD2K will be available at
https://github.com/syxvision/FDNet.
- Abstract(参考訳): カモフラーゲ型物体検出(COD)の課題は、ターゲットと背景の間のテクスチャが視覚的に区別できないため、通常の検出よりも難しい環境に統合されたカモフラーゲ型物体を正確に分割することである。
本稿では,CODタスクを処理するために,FDNet(Feature Grafting and Distractor Aware Network)を提案する。
具体的には、CNNとTransformerを使ってマルチスケール画像を並列にエンコードする。
2つのエンコーダの利点をよりよく探究するために、トランスフォーマーブランチから抽出された特徴をcnnブランチにグラフトするために、クロスアテンションベースの特徴グラフトモジュールを設計し、その特徴をfeature fusionモジュールに集約する。
distractor awareモジュールはcodタスクで考えられる2つの邪魔者を明確にモデル化し、粗いカモフラージュマップを洗練するように設計されている。
また,アノテーション付き2000枚の画像を含む最大人工カモフラージュオブジェクトデータセット(ACOD2K)も提案した。
4つのベンチマークデータセットとacod2kデータセットについて広範な実験を行った。
その結果,本手法は他の最先端手法よりも優れていた。
コードとACOD2Kはhttps://github.com/syxvision/FDNetで入手できる。
関連論文リスト
- A Simple yet Effective Network based on Vision Transformer for
Camouflaged Object and Salient Object Detection [33.30644598646274]
視覚変換器(ViT)に基づく簡易で効果的なネットワーク(SENet)を提案する。
ローカル情報をモデル化するTransformerの機能を強化するために,ローカル情報キャプチャモジュール(licM)を提案する。
また,BCE(Binary Cross-Entropy)とIoU(Intersection over Union)に基づく動的重み付き損失(DW損失)を提案する。
論文 参考訳(メタデータ) (2024-02-29T07:29:28Z) - Camouflaged Image Synthesis Is All You Need to Boost Camouflaged
Detection [65.8867003376637]
本研究では,カモフラージュデータの合成フレームワークを提案する。
提案手法では,既存の物体検出モデルのトレーニングに使用可能な,現実的なカモフラージュ画像の生成に生成モデルを用いる。
我々のフレームワークは3つのデータセット上で最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-08-13T06:55:05Z) - Referring Camouflaged Object Detection [97.90911862979355]
Ref-COD は、特定のカモフラージュされたオブジェクトを、サルエントターゲットオブジェクトによる参照画像の小さなセットに基づいて分割することを目的としている。
R2C7Kと呼ばれる大規模なデータセットは、実世界のシナリオで64のオブジェクトカテゴリをカバーする7Kイメージで構成されています。
論文 参考訳(メタデータ) (2023-06-13T04:15:37Z) - Adaptive Rotated Convolution for Rotated Object Detection [96.94590550217718]
本稿では、回転物体検出問題に対処するために、適応回転変換(ARC)モジュールを提案する。
ARCモジュールでは、コンボリューションカーネルが適応的に回転し、異なる画像に異なる向きのオブジェクト特徴を抽出する。
提案手法は,81.77%mAPのDOTAデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-03-14T11:53:12Z) - Unleash the Potential of Image Branch for Cross-modal 3D Object
Detection [67.94357336206136]
画像分岐のポテンシャルを2つの側面から解き放つことを目的として,新しい3Dオブジェクト検出器UPIDetを提案する。
まず、UPIDetは正規化された局所座標写像推定と呼ばれる新しい2次元補助タスクを導入する。
第2に,イメージブランチのトレーニング目標から逆転する勾配によって,ポイントクラウドバックボーンの表現能力を向上できることを見出した。
論文 参考訳(メタデータ) (2023-01-22T08:26:58Z) - Feature Aggregation and Propagation Network for Camouflaged Object
Detection [42.33180748293329]
カモフラージュされたオブジェクト検出(COD)は、環境に埋め込まれたカモフラージュされたオブジェクトを検出し、分離することを目的としている。
いくつかのCOD法が開発されているが, 前景オブジェクトと背景環境との固有の類似性により, 依然として不満足な性能に悩まされている。
カモフラージュされた物体検出のための新しい特徴集約・伝播ネットワーク(FAP-Net)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:54:28Z) - MFFN: Multi-view Feature Fusion Network for Camouflaged Object Detection [10.04773536815808]
画像中の不明瞭な物体を見つける人間の振る舞いを模倣する,Multi-view Feature Fusion Network (MFFN) と呼ばれる行動に触発されたフレームワークを提案する。
MFFNは抽出したマルチビュー特徴を比較し、融合することにより、重要なエッジとセマンティック情報をキャプチャする。
提案手法は,同一データを用いたトレーニングにより,既存の最先端手法に対して良好に機能する。
論文 参考訳(メタデータ) (2022-10-12T16:12:58Z) - Camouflaged Object Detection via Context-aware Cross-level Fusion [10.942917945534678]
カモフラージュされた物体検出(COD)は、自然界に隠れている物体を識別することを目的としている。
本稿では,コンテキスト認識型クロスレベル統合ネットワーク(C2F-Net)を提案する。
C2F-Netは効果的なCODモデルであり、最先端(SOTA)モデルよりも優れています。
論文 参考訳(メタデータ) (2022-07-27T08:34:16Z) - Deep Gradient Learning for Efficient Camouflaged Object Detection [152.24312279220598]
本稿では、勾配カモフラーグ型物体検出(COD)のためのオブジェクト監視を利用する新しいディープフレームワークであるDGNetを紹介する。
シンプルだが効率的なフレームワークから恩恵を受け、DGNetは既存の最先端のCODモデルよりも大きなマージンで優れている。
また,提案したDGNetは,ポリプのセグメンテーション,欠陥検出,透過的なオブジェクトセグメンテーションタスクにおいて良好に機能することを示した。
論文 参考訳(メタデータ) (2022-05-25T15:25:18Z) - Self-Supervised Object Detection via Generative Image Synthesis [106.65384648377349]
本稿では,自己教師対象検出のための制御可能なGANを用いたエンドツーエンド分析合成フレームワークを提案する。
オブジェクトの合成と検出を学習するために、ボックスアノテーションを使用せずに、実世界のイメージのコレクションを使用します。
我々の研究は、制御可能なGAN画像合成という新しいパラダイムを導入することで、自己教師対象検出の分野を前進させる。
論文 参考訳(メタデータ) (2021-10-19T11:04:05Z) - Context-aware Cross-level Fusion Network for Camouflaged Object
Detection [23.109969322128958]
本稿では,C2F-Net(Context-aware Cross-level Fusion Network)を提案する。
我々のC2F-Netは有効なCODモデルであり、最先端モデルよりも優れています。
論文 参考訳(メタデータ) (2021-05-26T14:03:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。