論文の概要: Concealed Object Detection
- arxiv url: http://arxiv.org/abs/2102.10274v1
- Date: Sat, 20 Feb 2021 06:49:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-24 04:47:28.908679
- Title: Concealed Object Detection
- Title(参考訳): 概念的物体検出
- Authors: Deng-Ping Fan, Ge-Peng Ji, Ming-Ming Cheng, Ling Shao
- Abstract要約: 隠蔽物体検出(COD)に関する最初の体系的研究を紹介します。
CODは、背景に「完全に」埋め込まれているオブジェクトを特定することを目指しています。
このタスクをより理解するために、cod10kと呼ばれる大規模なデータセットを収集します。
- 参考スコア(独自算出の注目度): 140.98738087261887
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present the first systematic study on concealed object detection (COD),
which aims to identify objects that are "perfectly" embedded in their
background. The high intrinsic similarities between the concealed objects and
their background make COD far more challenging than traditional object
detection/segmentation. To better understand this task, we collect a
large-scale dataset, called COD10K, which consists of 10,000 images covering
concealed objects in diverse real-world scenarios from 78 object categories.
Further, we provide rich annotations including object categories, object
boundaries, challenging attributes, object-level labels, and instance-level
annotations. Our COD10K is the largest COD dataset to date, with the richest
annotations, which enables comprehensive concealed object understanding and can
even be used to help progress several other vision tasks, such as detection,
segmentation, classification, etc. Motivated by how animals hunt in the wild,
we also design a simple but strong baseline for COD, termed the Search
Identification Network (SINet). Without any bells and whistles, SINet
outperforms 12 cutting-edge baselines on all datasets tested, making them
robust, general architectures that could serve as catalysts for future research
in COD. Finally, we provide some interesting findings and highlight several
potential applications and future directions. To spark research in this new
field, our code, dataset, and online demo are available on our project page:
http://mmcheng.net/cod.
- Abstract(参考訳): 本研究では,その背景に「完全に」埋め込まれた物体を識別することを目的とした,隠れ物体検出(cod)に関する最初の体系的研究を行う。
隠された目的と背景間の高い本質的な類似性は従来の目的の検出/区分よりはるかに困難にします。
このタスクをよりよく理解するために、78のオブジェクトカテゴリから、隠蔽されたオブジェクトをカバーする1万の画像からなる大規模なデータセットCOD10Kを収集します。
さらに、オブジェクトカテゴリ、オブジェクトバウンダリ、チャレンジング属性、オブジェクトレベルのラベル、インスタンスレベルのアノテーションなど、豊富なアノテーションを提供します。
COD10Kは、これまでで最大のCODデータセットであり、最もリッチなアノテーションにより、包括的な隠蔽オブジェクト理解を可能にし、検出、セグメンテーション、分類などの他の視覚タスクの進行にも使用できます。
動物が野生で狩猟する方法に動機づけられて、我々はまた、検索識別ネットワーク(SINet)と呼ばれるCODのためのシンプルで強力なベースラインを設計します。
sinetは、すべてのデータセットで12の最先端ベースラインを上回っており、codにおける今後の研究の触媒となるような、堅牢で一般的なアーキテクチャになっている。
最後に、いくつかの興味深い発見を提供し、潜在的なアプリケーションと今後の方向性を強調します。
この新分野の研究をきっかけに、私たちのコード、データセット、オンラインデモがプロジェクトページで公開されています。
関連論文リスト
- Collaborative Camouflaged Object Detection: A Large-Scale Dataset and
Benchmark [8.185431179739945]
我々はコラボレーティブカモフラーグ型物体検出(CoCOD)と呼ばれる新しい課題について検討する。
CoCODは、関連する画像のグループから、同じ特性を持つカモフラージュされたオブジェクトを同時に検出することを目的としている。
我々は,8,528の高品質で精巧に選択された画像からなる,CoCOD8Kと呼ばれる最初の大規模データセットを構築した。
論文 参考訳(メタデータ) (2023-10-06T13:51:46Z) - Camouflaged Object Detection with Feature Grafting and Distractor Aware [9.791590363932519]
そこで我々は,Camouflaged Object Detectionタスクを処理するために,FDNet(Feature Grafting and Distractor Aware Network)を提案する。
具体的には、CNNとTransformerを使ってマルチスケール画像を並列にエンコードする。
Distractor Aware Moduleは、CODタスクで考えられる2つの障害を明示的にモデル化して、粗いカモフラージュマップを洗練させるように設計されている。
論文 参考訳(メタデータ) (2023-07-08T09:37:08Z) - Boundary-Guided Camouflaged Object Detection [20.937071658007255]
カモフラージュ物体検出のための新しい境界誘導ネットワーク(BGNet)を提案する。
提案手法は,CODの表現学習をガイドするために,重要かつ余分なオブジェクト関連エッジセマンティクスを探索する。
提案手法は, 正確な境界位置同定を行うために, カモフラージュした物体の検出を促進する。
論文 参考訳(メタデータ) (2022-07-02T10:48:35Z) - Towards Deeper Understanding of Camouflaged Object Detection [64.81987999832032]
バイナリセグメンテーション設定は、カモフラージュの概念を完全に理解できない。
そこで本研究では,カモフラージュされたオブジェクトの局所化,セグメント化,ランク付けを同時に行う3段階学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-23T14:26:18Z) - Fast Camouflaged Object Detection via Edge-based Reversible
Re-calibration Network [17.538512222905087]
本稿では,ERRNetと呼ばれるエッジベースの可逆再校正ネットワークを提案する。
Selective Edge Aggregation(SEA)とReversible Re-calibration Unit(RRU)の2つの革新的な設計が特徴である。
実験の結果,ERRNetは3つのCODデータセットと5つの医用画像セグメンテーションデータセットで既存の最先端ベースラインよりも優れていた。
論文 参考訳(メタデータ) (2021-11-05T02:03:54Z) - ObjectFolder: A Dataset of Objects with Implicit Visual, Auditory, and
Tactile Representations [52.226947570070784]
両課題に対処する100のオブジェクトからなるデータセットであるObjectを,2つの重要なイノベーションで紹介する。
まず、オブジェクトは視覚的、聴覚的、触覚的なすべてのオブジェクトの知覚データをエンコードし、多数の多感覚オブジェクト認識タスクを可能にする。
第2に、Objectは統一されたオブジェクト中心のシミュレーションと、各オブジェクトの視覚的テクスチャ、触覚的読み出し、触覚的読み出しに暗黙的な表現を採用しており、データセットの使用が柔軟で共有が容易である。
論文 参考訳(メタデータ) (2021-09-16T14:00:59Z) - Learning Open-World Object Proposals without Learning to Classify [110.30191531975804]
本研究では,各領域の位置と形状がどの接地トラストオブジェクトとどのように重なり合うかによって,各領域の目的性を純粋に推定する,分類不要なオブジェクトローカライゼーションネットワークを提案する。
この単純な戦略は一般化可能な対象性を学び、クロスカテゴリの一般化に関する既存の提案より優れている。
論文 参考訳(メタデータ) (2021-08-15T14:36:02Z) - Simultaneously Localize, Segment and Rank the Camouflaged Objects [55.46101599577343]
camouflaged object detectionは、周囲に隠されているcamouflaged objectsを分割することを目的としている。
私たちは、カモフラージュされた物体の目立ちを特定の背景に明確にモデル化することは、カモフラージュと動物の進化をよりよく理解するのに役立つと主張しています。
迷彩オブジェクトを同時にローカライズ、セグメント化、ランク付けする最初のランキングベースのCODネットワーク(Rank-Net)を紹介します。
論文 参考訳(メタデータ) (2021-03-06T02:53:36Z) - TAO: A Large-Scale Benchmark for Tracking Any Object [95.87310116010185]
オブジェクトのデータセットの追跡は2,907本の高解像度ビデオで構成され、平均で30分の長さの多様な環境でキャプチャされる。
ビデオの任意の時点で移動するオブジェクトにアノテータにラベルを付け、ファクトラムの後に名前を付けるように求めます。
我々の語彙は、既存の追跡データセットと著しく大きく、質的に異なる。
論文 参考訳(メタデータ) (2020-05-20T21:07:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。