論文の概要: Weakly-Supervised Camouflaged Object Detection with Scribble Annotations
- arxiv url: http://arxiv.org/abs/2207.14083v1
- Date: Thu, 28 Jul 2022 13:40:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-29 12:26:46.740501
- Title: Weakly-Supervised Camouflaged Object Detection with Scribble Annotations
- Title(参考訳): scribbleアノテーションを用いた弱教師付き迷彩物体検出
- Authors: Ruozhen He and Qihua Dong and Jiaying Lin and Rynson W.H. Lau
- Abstract要約: そこで本研究では,スクリブルアノテーションを指標としたCOD法を提案する。
アノテーション付きカモフラージュオブジェクトは、画像ごとに60分かかる。
本稿では,異なる画像に対する信頼性の高い一貫性を実現するための信頼性の高いクロスビューの損失と,単一の予測マップ内での一貫性を維持するためのソフトな内部ビューの損失の2つの部分からなる新しい一貫性の損失を提案する。
- 参考スコア(独自算出の注目度): 34.78171563557932
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing camouflaged object detection (COD) methods rely heavily on
large-scale datasets with pixel-wise annotations. However, due to the ambiguous
boundary, it is very time-consuming and labor-intensive to annotate camouflage
objects pixel-wisely (which takes ~ 60 minutes per image). In this paper, we
propose the first weakly-supervised camouflaged object detection (COD) method,
using scribble annotations as supervision. To achieve this, we first construct
a scribble-based camouflaged object dataset with 4,040 images and corresponding
scribble annotations. It is worth noting that annotating the scribbles used in
our dataset takes only ~ 10 seconds per image, which is 360 times faster than
per-pixel annotations. However, the network directly using scribble annotations
for supervision will fail to localize the boundary of camouflaged objects and
tend to have inconsistent predictions since scribble annotations only describe
the primary structure of objects without details. To tackle this problem, we
propose a novel consistency loss composed of two parts: a reliable cross-view
loss to attain reliable consistency over different images, and a soft
inside-view loss to maintain consistency inside a single prediction map.
Besides, we observe that humans use semantic information to segment regions
near boundaries of camouflaged objects. Therefore, we design a feature-guided
loss, which includes visual features directly extracted from images and
semantically significant features captured by models. Moreover, we propose a
novel network that detects camouflaged objects by scribble learning on
structural information and semantic relations. Experimental results show that
our model outperforms relevant state-of-the-art methods on three COD benchmarks
with an average improvement of 11.0% on MAE, 3.2% on S-measure, 2.5% on
E-measure and 4.4% on weighted F-measure.
- Abstract(参考訳): 既存のcamouflaged object detection (cod)メソッドは、ピクセル単位のアノテーションを持つ大規模データセットに大きく依存している。
しかし、曖昧な境界のため、カモフラージュオブジェクトをピクセル単位(画像あたり約60分)に注釈するのに非常に時間がかかり、労力がかかる。
本稿では,scribbleアノテーションを監督に用いた最初の弱教師付きcamouflaged object detection (cod)法を提案する。
そこで我々はまず,4,040個の画像と対応するスクリブルアノテーションを備えた,スクリブルベースカモフラージュオブジェクトデータセットを構築した。
データセットで使用されるスクリブルに注釈を付けるのに1画像につき10秒程度しかかからず、これはピクセル毎のアノテーションの360倍の速度です。
しかし、監視のためにscribbleアノテーションを直接使用するネットワークは、camouflagedオブジェクトの境界をローカライズすることができず、scribbleアノテーションは詳細のないオブジェクトの一次構造のみを記述するため、一貫性のない予測をする傾向がある。
この問題に対処するために、異なる画像に対する信頼性の高い整合性を実現するための信頼性の高いクロスビュー損失と、単一の予測マップ内の整合性を維持するためのソフトな内部ビュー損失の2つの部分からなる新しい整合性損失を提案する。
また,人間はカモフラージュ対象の境界付近のセグメンテーション領域に意味情報を用いるのが観察された。
そこで我々は,画像から直接抽出した視覚的特徴と,モデルが捉えた意味的に重要な特徴を含む特徴誘導損失を設計する。
さらに,構造情報や意味的関係を学習することで,カモフラージュ対象を検出する新しいネットワークを提案する。
実験の結果,本モデルは3つのcodベンチマークにおいて,平均で11.0%,s-measureで3.2%,e-measureで2.5%,加重f-measureで4.4%改善した。
関連論文リスト
- Just a Hint: Point-Supervised Camouflaged Object Detection [4.38858748263547]
カモフラージュされたオブジェクト検出(COD)は、環境内でシームレスにオブジェクトを迅速かつ正確に識別するモデルを要求する。
我々は,この課題を一点監督の助けを借りて遂行することを提案する。
具体的には、各オブジェクトを素早くクリックすることで、最初に元のポイントベースのアノテーションを合理的なヒント領域に適応的に拡張する。
そこで本研究では,物体全体に注意を散布するアテンションレギュレータを提案する。
論文 参考訳(メタデータ) (2024-08-20T12:17:25Z) - Object Detection in Aerial Images with Uncertainty-Aware Graph Network [61.02591506040606]
本稿では,ノードとエッジがオブジェクトによって表現される構造化グラフを用いた,新しい不確実性を考慮したオブジェクト検出フレームワークを提案する。
我々は我々のモデルをオブジェクトDETection(UAGDet)のための不確実性対応グラフネットワークと呼ぶ。
論文 参考訳(メタデータ) (2022-08-23T07:29:03Z) - Boundary-Guided Camouflaged Object Detection [20.937071658007255]
カモフラージュ物体検出のための新しい境界誘導ネットワーク(BGNet)を提案する。
提案手法は,CODの表現学習をガイドするために,重要かつ余分なオブジェクト関連エッジセマンティクスを探索する。
提案手法は, 正確な境界位置同定を行うために, カモフラージュした物体の検出を促進する。
論文 参考訳(メタデータ) (2022-07-02T10:48:35Z) - Towards Deeper Understanding of Camouflaged Object Detection [64.81987999832032]
バイナリセグメンテーション設定は、カモフラージュの概念を完全に理解できない。
そこで本研究では,カモフラージュされたオブジェクトの局所化,セグメント化,ランク付けを同時に行う3段階学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-23T14:26:18Z) - High-resolution Iterative Feedback Network for Camouflaged Object
Detection [128.893782016078]
カモフラージュされたオブジェクトを背景に視覚的に同化させることは、オブジェクト検出アルゴリズムにとって難しい。
エッジやバウンダリのぼやけた視界を生じさせる細部劣化を避けるために,高分解能テクスチャの詳細を抽出することを目的としている。
我々は,高解像度特徴量による低解像度表現を反復的フィードバック方式で洗練する新しいHitNetを提案する。
論文 参考訳(メタデータ) (2022-03-22T11:20:21Z) - DetCo: Unsupervised Contrastive Learning for Object Detection [64.22416613061888]
教師なしのコントラスト学習は,CNNを用いた画像表現学習において大きな成功を収めている。
我々は,グローバルイメージとローカルイメージパッチのコントラストをフルに検討する,DetCoという新しいコントラスト学習手法を提案する。
DetCoは1倍のスケジュールでMask RCNN-C4/FPN/RetinaNet上で1.6/1.2/1.0 APで教師付き手法を一貫して上回っている。
論文 参考訳(メタデータ) (2021-02-09T12:47:20Z) - Weakly-Supervised Salient Object Detection via Scribble Annotations [54.40518383782725]
本稿では,スクリブルラベルからサリエンシを学習するための弱教師付きサリエント物体検出モデルを提案する。
そこで本研究では,予測されたサリエンシマップの構造アライメントを測定するために,新しい尺度であるサリエンシ構造尺度を提案する。
我々の手法は、既存の弱教師付き/非教師付き手法よりも優れているだけでなく、いくつかの完全教師付き最先端モデルと同等である。
論文 参考訳(メタデータ) (2020-03-17T12:59:50Z) - Object as Hotspots: An Anchor-Free 3D Object Detection Approach via
Firing of Hotspots [37.16690737208046]
オブジェクトレベルのアンカーを用いた既存のメソッドとは逆のアプローチを論じる。
構成モデルに着想を得て、内部の空でないボクセルの組成として、ホットスポットと呼ばれる物体を提案する。
提案手法は,OHSに基づく新しい地中真理割当て戦略を用いたアンカーフリー検出ヘッドを提案する。
論文 参考訳(メタデータ) (2019-12-30T03:02:22Z) - SESS: Self-Ensembling Semi-Supervised 3D Object Detection [138.80825169240302]
具体的には、ラベルのない新しい未知のデータに基づくネットワークの一般化を促進するための、徹底的な摂動スキームを設計する。
我々のSESSは、50%のラベル付きデータを用いて、最先端の完全教師付き手法と比較して、競争性能を達成している。
論文 参考訳(メタデータ) (2019-12-26T08:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。