論文の概要: Unconstrained Salient and Camouflaged Object Detection
- arxiv url: http://arxiv.org/abs/2412.10943v1
- Date: Sat, 14 Dec 2024 19:37:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:57:38.567215
- Title: Unconstrained Salient and Camouflaged Object Detection
- Title(参考訳): 制約のない塩分・カモフラージュ物体検出
- Authors: Zhangjun Zhou, Yiping Li, Chunlin Zhong, Jianuo Huang, Jialun Pei, He Tang,
- Abstract要約: 制約なし塩分とカモフラーゲ型オブジェクト検出 (USCOD) というベンチマークを導入する。
USCODは、その存在に関係なく、制約のないシーンで、塩分とカモフラージュされた物体の同時検出をサポートする。
この課題に対処するため,USCODのベースラインモデルであるUSCNetを提案する。
- 参考スコア(独自算出の注目度): 4.698538612738126
- License:
- Abstract: Visual Salient Object Detection (SOD) and Camouflaged Object Detection (COD) are two interrelated yet distinct tasks. Both tasks model the human visual system's ability to perceive the presence of objects. The traditional SOD datasets and methods are designed for scenes where only salient objects are present, similarly, COD datasets and methods are designed for scenes where only camouflaged objects are present. However, scenes where both salient and camouflaged objects coexist, or where neither is present, are not considered. This simplifies the existing research on SOD and COD. In this paper, to explore a more generalized approach to SOD and COD, we introduce a benchmark called Unconstrained Salient and Camouflaged Object Detection (USCOD), which supports the simultaneous detection of salient and camouflaged objects in unconstrained scenes, regardless of their presence. Towards this, we construct a large-scale dataset, CS12K, that encompasses a variety of scenes, including four distinct types: only salient objects, only camouflaged objects, both, and neither. In our benchmark experiments, we identify a major challenge in USCOD: distinguishing between salient and camouflaged objects within the same scene. To address this challenge, we propose USCNet, a baseline model for USCOD that decouples the learning of attribute distinction from mask reconstruction. The model incorporates an APG module, which learns both sample-generic and sample-specific features to enhance the attribute differentiation between salient and camouflaged objects. Furthermore, to evaluate models' ability to distinguish between salient and camouflaged objects, we design a metric called Camouflage-Saliency Confusion Score (CSCS). The proposed method achieves state-of-the-art performance on the newly introduced USCOD task. The code and dataset will be publicly available.
- Abstract(参考訳): Visual Salient Object Detection (SOD) と Camouflaged Object Detection (COD) は、相互に関連があるが異なる2つのタスクである。
両方のタスクは、人間の視覚システムが物体の存在を知覚する能力をモデル化する。
従来のSODデータセットとメソッドは、正常なオブジェクトのみが存在するシーンのために設計されており、同様に、CODデータセットとメソッドは、カモフラージュされたオブジェクトのみが存在するシーンのために設計されている。
しかし、陰影と陰影の両方が共存する場面や、どちらも存在しない場面は考慮されていない。
これはSODとCODに関する既存の研究を単純化する。
本稿では,SOD と COD のより一般化されたアプローチを探るため,制約のないシーンにおいて,非制約な環境下での塩分とカモフラージュの同時検出を支援する Unconstrained Salient and Camouflaged Object Detection (USCOD) というベンチマークを導入する。
そこで我々はCS12Kという大規模データセットを構築し、4つの異なるタイプのシーンを包含する。
ベンチマーク実験では,USCODにおける大きな課題として,同じシーン内での正当性と正中性オブジェクトの区別があげられる。
この課題に対処するため,USCODのベースラインモデルであるUSCNetを提案する。
このモデルにはAPGモジュールが組み込まれており、サンプルジェネリックとサンプル特有の特徴の両方を学習し、塩分とカモフラージュした物体の属性の区別を強化する。
さらに, カモフラージュされた物体と, カモフラージュされた物体を識別するモデルの能力を評価するために, カモフラージュ・サリエンシ・コンフュージョン・スコア (CSCS) と呼ばれる計量を設計する。
提案手法は,新たに導入されたUSCODタスクの最先端性能を実現する。
コードとデータセットが公開される。
関連論文リスト
- Camouflaged Object Detection with Feature Grafting and Distractor Aware [9.791590363932519]
そこで我々は,Camouflaged Object Detectionタスクを処理するために,FDNet(Feature Grafting and Distractor Aware Network)を提案する。
具体的には、CNNとTransformerを使ってマルチスケール画像を並列にエンコードする。
Distractor Aware Moduleは、CODタスクで考えられる2つの障害を明示的にモデル化して、粗いカモフラージュマップを洗練させるように設計されている。
論文 参考訳(メタデータ) (2023-07-08T09:37:08Z) - Referring Camouflaged Object Detection [97.90911862979355]
Ref-COD は、特定のカモフラージュされたオブジェクトを、サルエントターゲットオブジェクトによる参照画像の小さなセットに基づいて分割することを目的としている。
R2C7Kと呼ばれる大規模なデータセットは、実世界のシナリオで64のオブジェクトカテゴリをカバーする7Kイメージで構成されています。
論文 参考訳(メタデータ) (2023-06-13T04:15:37Z) - The Art of Camouflage: Few-Shot Learning for Animal Detection and Segmentation [21.047026366450197]
カモフラージュされた物体の検出とセグメンテーションにおける数ショット学習の問題に対処する。
そこで我々は, Camouflaged インスタンスを効率的に検出・分割するフレームワーク FS-CDIS を提案する。
提案手法は,新たに収集したデータセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2023-04-15T01:33:14Z) - CamDiff: Camouflage Image Augmentation via Diffusion Model [83.35960536063857]
CamDiffは、カモフラージュされたシーンで透明なオブジェクトを合成するための新しいアプローチだ。
我々は,潜伏拡散モデルを用いて,カモフラージュされたシーンで有能な物体を合成する。
当社のアプローチでは、フレキシブルな編集と大規模データセットの効率的な生成を低コストで実現している。
論文 参考訳(メタデータ) (2023-04-11T19:37:47Z) - CamoFormer: Masked Separable Attention for Camouflaged Object Detection [94.2870722866853]
カモフラージュされた物体検出のための単純なマスク付き分離型注意(MSA)を提案する。
まず,マルチヘッド・セルフアテンションを3つの部分に分割し,異なるマスキング戦略を用いて,背景からカモフラージュした物体を識別する役割を担っている。
提案手法では,MSAを用いた単純なトップダウンデコーダを用いて,高精度なセグメンテーション結果を得るために,高分解能なセグメンテーション表現を段階的にキャプチャする。
論文 参考訳(メタデータ) (2022-12-10T10:03:27Z) - MFFN: Multi-view Feature Fusion Network for Camouflaged Object Detection [10.04773536815808]
画像中の不明瞭な物体を見つける人間の振る舞いを模倣する,Multi-view Feature Fusion Network (MFFN) と呼ばれる行動に触発されたフレームワークを提案する。
MFFNは抽出したマルチビュー特徴を比較し、融合することにより、重要なエッジとセマンティック情報をキャプチャする。
提案手法は,同一データを用いたトレーニングにより,既存の最先端手法に対して良好に機能する。
論文 参考訳(メタデータ) (2022-10-12T16:12:58Z) - Towards Deeper Understanding of Camouflaged Object Detection [64.81987999832032]
バイナリセグメンテーション設定は、カモフラージュの概念を完全に理解できない。
そこで本研究では,カモフラージュされたオブジェクトの局所化,セグメント化,ランク付けを同時に行う3段階学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-23T14:26:18Z) - Simultaneously Localize, Segment and Rank the Camouflaged Objects [55.46101599577343]
camouflaged object detectionは、周囲に隠されているcamouflaged objectsを分割することを目的としている。
私たちは、カモフラージュされた物体の目立ちを特定の背景に明確にモデル化することは、カモフラージュと動物の進化をよりよく理解するのに役立つと主張しています。
迷彩オブジェクトを同時にローカライズ、セグメント化、ランク付けする最初のランキングベースのCODネットワーク(Rank-Net)を紹介します。
論文 参考訳(メタデータ) (2021-03-06T02:53:36Z) - Concealed Object Detection [140.98738087261887]
隠蔽物体検出(COD)に関する最初の体系的研究を紹介します。
CODは、背景に「完全に」埋め込まれているオブジェクトを特定することを目指しています。
このタスクをより理解するために、cod10kと呼ばれる大規模なデータセットを収集します。
論文 参考訳(メタデータ) (2021-02-20T06:49:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。