論文の概要: Just a Hint: Point-Supervised Camouflaged Object Detection
- arxiv url: http://arxiv.org/abs/2408.10777v1
- Date: Tue, 20 Aug 2024 12:17:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-21 13:45:16.862370
- Title: Just a Hint: Point-Supervised Camouflaged Object Detection
- Title(参考訳): Just a Hint: Point-Supervised Camouflaged Object Detection
- Authors: Huafeng Chen, Dian Shao, Guangqian Guo, Shan Gao,
- Abstract要約: カモフラージュされたオブジェクト検出(COD)は、環境内でシームレスにオブジェクトを迅速かつ正確に識別するモデルを要求する。
我々は,この課題を一点監督の助けを借りて遂行することを提案する。
具体的には、各オブジェクトを素早くクリックすることで、最初に元のポイントベースのアノテーションを合理的なヒント領域に適応的に拡張する。
そこで本研究では,物体全体に注意を散布するアテンションレギュレータを提案する。
- 参考スコア(独自算出の注目度): 4.38858748263547
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Camouflaged Object Detection (COD) demands models to expeditiously and accurately distinguish objects which conceal themselves seamlessly in the environment. Owing to the subtle differences and ambiguous boundaries, COD is not only a remarkably challenging task for models but also for human annotators, requiring huge efforts to provide pixel-wise annotations. To alleviate the heavy annotation burden, we propose to fulfill this task with the help of only one point supervision. Specifically, by swiftly clicking on each object, we first adaptively expand the original point-based annotation to a reasonable hint area. Then, to avoid partial localization around discriminative parts, we propose an attention regulator to scatter model attention to the whole object through partially masking labeled regions. Moreover, to solve the unstable feature representation of camouflaged objects under only point-based annotation, we perform unsupervised contrastive learning based on differently augmented image pairs (e.g. changing color or doing translation). On three mainstream COD benchmarks, experimental results show that our model outperforms several weakly-supervised methods by a large margin across various metrics.
- Abstract(参考訳): カモフラージュされたオブジェクト検出(COD)は、環境にシームレスに隠蔽するオブジェクトを迅速かつ正確に識別するモデルを要求する。
微妙な違いと曖昧な境界のため、CODはモデルにとって驚くべき課題であるだけでなく、人間のアノテータにとっても重要な課題である。
重度アノテーションの負担を軽減するため,一点管理の助けを借りてこの課題を遂行することを提案する。
具体的には、各オブジェクトを素早くクリックすることで、最初に元のポイントベースのアノテーションを合理的なヒント領域に適応的に拡張する。
そこで本研究では,識別部位の周辺部分の局所化を避けるため,ラベル付き領域を部分的にマスキングすることで,対象物全体に注意を散布するアテンションレギュレータを提案する。
さらに, 点ベースアノテーションのみを用いて, カモフラージュされた物体の不安定な特徴表現を解決するために, 異なる拡張画像対(例えば色の変化や翻訳)に基づいて教師なしのコントラスト学習を行う。
3つの主要なCODベンチマークにおいて、実験結果により、我々のモデルは様々な指標に対して大きなマージンで弱教師付き手法よりも優れていることが示された。
関連論文リスト
- Toward Realistic Camouflaged Object Detection: Benchmarks and Method [11.279532701331647]
カモフラージュされたオブジェクト検出(COD)は、主にセマンティックまたはインスタンスセグメンテーション手法に依存している。
カモフラージュ検出のためのCAFR(camouflage-aware feature refinement)戦略を提案する。
CAFRは、大型モデルの以前の知識の中で、現在の物体の明確な認識を十分に利用し、背景と前景の区別を深く理解する検出器を支援する。
論文 参考訳(メタデータ) (2025-01-13T13:04:00Z) - CGCOD: Class-Guided Camouflaged Object Detection [19.959268087062217]
我々は,従来のCODタスクを拡張したCGCOD(Class-Guided Camouflaged Object Detection)を導入する。
本稿では,プラグイン・アンド・プレイのクラス・プロンプト・ジェネレータと,シンプルで効果的なクラス・ガイダンス・ディテクターを組み込んだマルチステージ・フレームワークCGNetを提案する。
これはCODの新しいパラダイムを確立し、コンテキスト理解とクラス誘導検出のギャップを埋める。
論文 参考訳(メタデータ) (2024-12-25T19:38:32Z) - Tiny Object Detection with Single Point Supervision [48.88814240556747]
本稿では,航空画像におけるロバストな微小物体検出のためのポイント・インスツルメンテーション法を提案する。
点アノテーションにおけるスケールの曖昧さと位置変化からラベルノイズを扱うために、ポイント・インストラクターは教師-学生アーキテクチャを採用している。
この枠組みでは、画像領域のランダムマスキングにより回帰学習が促進され、教師はノイズの多い点アノテーションを粗い擬似ボックスに変換することができる。
第2段階では、これらの粗い擬似ボックスは動的多重インスタンス学習を用いて洗練され、最も信頼できるインスタンスを適応的に選択する。
論文 参考訳(メタデータ) (2024-12-08T07:13:17Z) - Object-Centric Multiple Object Tracking [124.30650395969126]
本稿では,多目的追跡パイプラインのためのビデオオブジェクト中心モデルを提案する。
オブジェクト中心のスロットを検出出力に適応するインデックスマージモジュールと、オブジェクトメモリモジュールで構成される。
オブジェクト中心学習に特化して、オブジェクトのローカライゼーションと機能バインディングのためのスパース検出ラベルしか必要としない。
論文 参考訳(メタデータ) (2023-09-01T03:34:12Z) - CamoFormer: Masked Separable Attention for Camouflaged Object Detection [94.2870722866853]
カモフラージュされた物体検出のための単純なマスク付き分離型注意(MSA)を提案する。
まず,マルチヘッド・セルフアテンションを3つの部分に分割し,異なるマスキング戦略を用いて,背景からカモフラージュした物体を識別する役割を担っている。
提案手法では,MSAを用いた単純なトップダウンデコーダを用いて,高精度なセグメンテーション結果を得るために,高分解能なセグメンテーション表現を段階的にキャプチャする。
論文 参考訳(メタデータ) (2022-12-10T10:03:27Z) - Domain Adaptive Segmentation of Electron Microscopy with Sparse Point
Annotations [2.5137859989323537]
競争性能に優れたアノテーション効率のアプローチを開発する。
弱教師付きドメイン適応(WDA)に極端にスパースで弱いアノテーションのタイプで焦点を当てる。
15%のポイントアノテーションしか持たないモデルでは、教師付きモデルと同等のパフォーマンスが得られることを示す。
論文 参考訳(メタデータ) (2022-10-24T10:50:37Z) - Weakly-Supervised Camouflaged Object Detection with Scribble Annotations [34.78171563557932]
そこで本研究では,スクリブルアノテーションを指標としたCOD法を提案する。
アノテーション付きカモフラージュオブジェクトは、画像ごとに60分かかる。
本稿では,異なる画像に対する信頼性の高い一貫性を実現するための信頼性の高いクロスビューの損失と,単一の予測マップ内での一貫性を維持するためのソフトな内部ビューの損失の2つの部分からなる新しい一貫性の損失を提案する。
論文 参考訳(メタデータ) (2022-07-28T13:40:07Z) - Point-Teaching: Weakly Semi-Supervised Object Detection with Point
Annotations [81.02347863372364]
本稿では,弱い半教師付きオブジェクト検出フレームワークであるPoint-Teachingを提案する。
具体的には,ポイントアノテート画像の擬似ラベルを生成するためのハンガリーの点マッチング手法を提案する。
そこで本研究では,不整合点の影響を低減するため,単純なyet- effective data augmentation(ポイント誘導コピーペースト)を提案する。
論文 参考訳(メタデータ) (2022-06-01T07:04:38Z) - High-resolution Iterative Feedback Network for Camouflaged Object
Detection [128.893782016078]
カモフラージュされたオブジェクトを背景に視覚的に同化させることは、オブジェクト検出アルゴリズムにとって難しい。
エッジやバウンダリのぼやけた視界を生じさせる細部劣化を避けるために,高分解能テクスチャの詳細を抽出することを目的としている。
我々は,高解像度特徴量による低解像度表現を反復的フィードバック方式で洗練する新しいHitNetを提案する。
論文 参考訳(メタデータ) (2022-03-22T11:20:21Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。