論文の概要: Just a Hint: Point-Supervised Camouflaged Object Detection
- arxiv url: http://arxiv.org/abs/2408.10777v1
- Date: Tue, 20 Aug 2024 12:17:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-21 13:45:16.862370
- Title: Just a Hint: Point-Supervised Camouflaged Object Detection
- Title(参考訳): Just a Hint: Point-Supervised Camouflaged Object Detection
- Authors: Huafeng Chen, Dian Shao, Guangqian Guo, Shan Gao,
- Abstract要約: カモフラージュされたオブジェクト検出(COD)は、環境内でシームレスにオブジェクトを迅速かつ正確に識別するモデルを要求する。
我々は,この課題を一点監督の助けを借りて遂行することを提案する。
具体的には、各オブジェクトを素早くクリックすることで、最初に元のポイントベースのアノテーションを合理的なヒント領域に適応的に拡張する。
そこで本研究では,物体全体に注意を散布するアテンションレギュレータを提案する。
- 参考スコア(独自算出の注目度): 4.38858748263547
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Camouflaged Object Detection (COD) demands models to expeditiously and accurately distinguish objects which conceal themselves seamlessly in the environment. Owing to the subtle differences and ambiguous boundaries, COD is not only a remarkably challenging task for models but also for human annotators, requiring huge efforts to provide pixel-wise annotations. To alleviate the heavy annotation burden, we propose to fulfill this task with the help of only one point supervision. Specifically, by swiftly clicking on each object, we first adaptively expand the original point-based annotation to a reasonable hint area. Then, to avoid partial localization around discriminative parts, we propose an attention regulator to scatter model attention to the whole object through partially masking labeled regions. Moreover, to solve the unstable feature representation of camouflaged objects under only point-based annotation, we perform unsupervised contrastive learning based on differently augmented image pairs (e.g. changing color or doing translation). On three mainstream COD benchmarks, experimental results show that our model outperforms several weakly-supervised methods by a large margin across various metrics.
- Abstract(参考訳): カモフラージュされたオブジェクト検出(COD)は、環境にシームレスに隠蔽するオブジェクトを迅速かつ正確に識別するモデルを要求する。
微妙な違いと曖昧な境界のため、CODはモデルにとって驚くべき課題であるだけでなく、人間のアノテータにとっても重要な課題である。
重度アノテーションの負担を軽減するため,一点管理の助けを借りてこの課題を遂行することを提案する。
具体的には、各オブジェクトを素早くクリックすることで、最初に元のポイントベースのアノテーションを合理的なヒント領域に適応的に拡張する。
そこで本研究では,識別部位の周辺部分の局所化を避けるため,ラベル付き領域を部分的にマスキングすることで,対象物全体に注意を散布するアテンションレギュレータを提案する。
さらに, 点ベースアノテーションのみを用いて, カモフラージュされた物体の不安定な特徴表現を解決するために, 異なる拡張画像対(例えば色の変化や翻訳)に基づいて教師なしのコントラスト学習を行う。
3つの主要なCODベンチマークにおいて、実験結果により、我々のモデルは様々な指標に対して大きなマージンで弱教師付き手法よりも優れていることが示された。
関連論文リスト
- Weakly-Supervised Cross-Domain Segmentation of Electron Microscopy with Sparse Point Annotation [1.124958340749622]
カウント,検出,セグメンテーションタスク間の相関を利用したマルチタスク学習フレームワークを提案する。
ラベル拡張のためのクロスポジションカット・アンド・ペーストを開発し,エントロピーに基づく擬似ラベル選択を行う。
提案手法は, UDA法を著しく上回り, 教師付き手法と同等の性能を発揮する。
論文 参考訳(メタデータ) (2024-03-31T12:22:23Z) - Object-Centric Multiple Object Tracking [124.30650395969126]
本稿では,多目的追跡パイプラインのためのビデオオブジェクト中心モデルを提案する。
オブジェクト中心のスロットを検出出力に適応するインデックスマージモジュールと、オブジェクトメモリモジュールで構成される。
オブジェクト中心学習に特化して、オブジェクトのローカライゼーションと機能バインディングのためのスパース検出ラベルしか必要としない。
論文 参考訳(メタデータ) (2023-09-01T03:34:12Z) - CamoFormer: Masked Separable Attention for Camouflaged Object Detection [94.2870722866853]
カモフラージュされた物体検出のための単純なマスク付き分離型注意(MSA)を提案する。
まず,マルチヘッド・セルフアテンションを3つの部分に分割し,異なるマスキング戦略を用いて,背景からカモフラージュした物体を識別する役割を担っている。
提案手法では,MSAを用いた単純なトップダウンデコーダを用いて,高精度なセグメンテーション結果を得るために,高分解能なセグメンテーション表現を段階的にキャプチャする。
論文 参考訳(メタデータ) (2022-12-10T10:03:27Z) - Domain Adaptive Segmentation of Electron Microscopy with Sparse Point
Annotations [2.5137859989323537]
競争性能に優れたアノテーション効率のアプローチを開発する。
弱教師付きドメイン適応(WDA)に極端にスパースで弱いアノテーションのタイプで焦点を当てる。
15%のポイントアノテーションしか持たないモデルでは、教師付きモデルと同等のパフォーマンスが得られることを示す。
論文 参考訳(メタデータ) (2022-10-24T10:50:37Z) - Weakly-Supervised Camouflaged Object Detection with Scribble Annotations [34.78171563557932]
そこで本研究では,スクリブルアノテーションを指標としたCOD法を提案する。
アノテーション付きカモフラージュオブジェクトは、画像ごとに60分かかる。
本稿では,異なる画像に対する信頼性の高い一貫性を実現するための信頼性の高いクロスビューの損失と,単一の予測マップ内での一貫性を維持するためのソフトな内部ビューの損失の2つの部分からなる新しい一貫性の損失を提案する。
論文 参考訳(メタデータ) (2022-07-28T13:40:07Z) - Point-Teaching: Weakly Semi-Supervised Object Detection with Point
Annotations [81.02347863372364]
本稿では,弱い半教師付きオブジェクト検出フレームワークであるPoint-Teachingを提案する。
具体的には,ポイントアノテート画像の擬似ラベルを生成するためのハンガリーの点マッチング手法を提案する。
そこで本研究では,不整合点の影響を低減するため,単純なyet- effective data augmentation(ポイント誘導コピーペースト)を提案する。
論文 参考訳(メタデータ) (2022-06-01T07:04:38Z) - High-resolution Iterative Feedback Network for Camouflaged Object
Detection [128.893782016078]
カモフラージュされたオブジェクトを背景に視覚的に同化させることは、オブジェクト検出アルゴリズムにとって難しい。
エッジやバウンダリのぼやけた視界を生じさせる細部劣化を避けるために,高分解能テクスチャの詳細を抽出することを目的としている。
我々は,高解像度特徴量による低解像度表現を反復的フィードバック方式で洗練する新しいHitNetを提案する。
論文 参考訳(メタデータ) (2022-03-22T11:20:21Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - SegTAD: Precise Temporal Action Detection via Semantic Segmentation [65.01826091117746]
意味的セグメンテーションの新しい視点で時間的行動検出のタスクを定式化する。
TADの1次元特性により、粗粒度検出アノテーションを細粒度セマンティックセマンティックアノテーションに無償で変換できる。
1Dセマンティックセグメンテーションネットワーク(1D-SSN)と提案検出ネットワーク(PDN)からなるエンドツーエンドフレームワークSegTADを提案する。
論文 参考訳(メタデータ) (2022-03-03T06:52:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。