論文の概要: Boosting Semi-Supervised Object Detection in Remote Sensing Images With
Active Teaching
- arxiv url: http://arxiv.org/abs/2402.18958v1
- Date: Thu, 29 Feb 2024 08:52:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-01 15:34:17.971824
- Title: Boosting Semi-Supervised Object Detection in Remote Sensing Images With
Active Teaching
- Title(参考訳): 能動教示によるリモートセンシング画像における半教師付き物体検出の促進
- Authors: Boxuan Zhang, Zengmao Wang and Bo Du
- Abstract要約: リモートセンシング画像における物体検出を促進するために,新しい能動学習法(AL)を提案する。
提案手法では,RoI 比較モジュール (RoICM) を組み込んで,関心領域に対する高信頼な擬似ラベルを生成する。
提案手法は,RSIにおけるオブジェクト検出の最先端手法より優れている。
- 参考スコア(独自算出の注目度): 34.26972464240673
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The lack of object-level annotations poses a significant challenge for object
detection in remote sensing images (RSIs). To address this issue, active
learning (AL) and semi-supervised learning (SSL) techniques have been proposed
to enhance the quality and quantity of annotations. AL focuses on selecting the
most informative samples for annotation, while SSL leverages the knowledge from
unlabeled samples. In this letter, we propose a novel AL method to boost
semi-supervised object detection (SSOD) for remote sensing images with a
teacher student network, called SSOD-AT. The proposed method incorporates an
RoI comparison module (RoICM) to generate high-confidence pseudo-labels for
regions of interest (RoIs). Meanwhile, the RoICM is utilized to identify the
top-K uncertain images. To reduce redundancy in the top-K uncertain images for
human labeling, a diversity criterion is introduced based on object-level
prototypes of different categories using both labeled and pseudo-labeled
images. Extensive experiments on DOTA and DIOR, two popular datasets,
demonstrate that our proposed method outperforms state-of-the-art methods for
object detection in RSIs. Compared with the best performance in the SOTA
methods, the proposed method achieves 1 percent improvement in most cases in
the whole AL.
- Abstract(参考訳): オブジェクトレベルのアノテーションの欠如は、リモートセンシング画像(RSI)におけるオブジェクト検出に重大な課題をもたらす。
この問題に対処するため,アノテーションの品質と量を高めるために,アクティブラーニング(AL)と半教師付きラーニング(SSL)技術が提案されている。
ALはアノテーションの最も情報に富んだサンプルの選択に重点を置いており、SSLはラベルのないサンプルからの知識を活用している。
本稿では,教師学生ネットワークを用いたリモートセンシング画像の半教師対象検出(SSOD)を高速化する新しいAL手法,SSOD-ATを提案する。
提案手法では,RoI 比較モジュール (RoICM) を組み込んで,関心領域 (RoI) に対して高信頼な擬似ラベルを生成する。
一方、RoICMはトップK不確実画像を識別するために使用される。
ラベル付き画像と擬似ラベル付き画像の両方を用いて、異なるカテゴリのオブジェクトレベルプロトタイプに基づいて、人間のラベル付けのためのトップK不確定画像の冗長性を低減する。
2つの一般的なデータセットであるDOTAとDIORの大規模な実験により、提案手法はRSIにおけるオブジェクト検出の最先端手法よりも優れていることを示した。
提案手法は,SOTA法における最高の性能と比較して,AL全体のほとんどの場合において1%改善する。
関連論文リスト
- Collaborative Feature-Logits Contrastive Learning for Open-Set Semi-Supervised Object Detection [75.02249869573994]
オープンセットのシナリオでは、ラベルなしデータセットには、イン・ディストリビューション(ID)クラスとアウト・オブ・ディストリビューション(OOD)クラスの両方が含まれている。
このような設定で半教師付き検出器を適用すると、OODクラスをIDクラスとして誤分類する可能性がある。
我々は、CFL-Detector(Collaborative Feature-Logits Detector)と呼ばれるシンプルで効果的な方法を提案する。
論文 参考訳(メタデータ) (2024-11-20T02:57:35Z) - SOOD++: Leveraging Unlabeled Data to Boost Oriented Object Detection [59.868772767818975]
本稿では,SOOD++ と呼ばれる簡易かつ効果的な半教師付きオブジェクト指向検出手法を提案する。
具体的には、空中画像からの物体は、通常任意の向き、小さなスケール、集約である。
様々なラベル付き環境下での多目的オブジェクトデータセットに対する大規模な実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-07-01T07:03:51Z) - ALWOD: Active Learning for Weakly-Supervised Object Detection [14.063031246614488]
我々は、弱い、半教師付きオブジェクト検出パラダイムでアクティブな学習を融合させる新しいフレームワークALWODを提案する。
ALWODは、一部のラベル付きだが戦略的に選択された画像インスタンスで訓練されたODと、完全にラベル付けされたデータに依存するODとのギャップを著しく狭めることを示した。
論文 参考訳(メタデータ) (2023-09-14T17:59:05Z) - De-coupling and De-positioning Dense Self-supervised Learning [65.56679416475943]
Dense Self-Supervised Learning (SSL)メソッドは、複数のオブジェクトでイメージを処理する際に、画像レベルの特徴表現を使用する際の制限に対処する。
本研究は, 層深度やゼロパディングに伴う受容野の増大によって生じる, 結合と位置バイアスに悩まされていることを示す。
我々はCOCOにおける本手法の利点と、オブジェクト分類、セマンティックセグメンテーション、オブジェクト検出のための新しい挑戦的ベンチマークであるOpenImage-MINIについて示す。
論文 参考訳(メタデータ) (2023-03-29T18:07:25Z) - MUS-CDB: Mixed Uncertainty Sampling with Class Distribution Balancing
for Active Annotation in Aerial Object Detection [40.94800050576902]
最近の空中物体検出モデルは大量のラベル付きトレーニングデータに依存している。
アクティブラーニングは、情報および代表的未ラベルサンプルを選択的にクエリすることで、データラベリングコストを効果的に削減する。
本稿では,費用対効果の高い空中物体検出のための新しい能動学習手法を提案する。
論文 参考訳(メタデータ) (2022-12-06T07:50:00Z) - A Comparative Attention Framework for Better Few-Shot Object Detection
on Aerial Images [2.292003207440126]
Few-Shot Object Detection (FSOD) 法は主に自然画像データセットに基づいて設計・評価されている。
自然画像の最良の方法が空中画像の最良の方法であるかどうかは不明だ。
本稿では,アテンションベースのFSOD手法の実装と比較を行うフレキシブルな環境を提供するベンチマークフレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-25T11:20:31Z) - Towards Effective Image Manipulation Detection with Proposal Contrastive
Learning [61.5469708038966]
本稿では,効果的な画像操作検出のためのコントラスト学習(PCL)を提案する。
我々のPCLは、RGBとノイズビューから2種類のグローバル特徴を抽出し、2ストリームアーキテクチャで構成されている。
我々のPCLは、実際にラベル付けされていないデータに容易に適用でき、手作業によるラベル付けコストを削減し、より一般化可能な機能を促進することができる。
論文 参考訳(メタデータ) (2022-10-16T13:30:13Z) - Learning Efficient Representations for Enhanced Object Detection on
Large-scene SAR Images [16.602738933183865]
SAR(Synthetic Aperture Radar)画像のターゲットの検出と認識は難しい問題である。
近年開発されたディープラーニングアルゴリズムは,SAR画像の固有の特徴を自動的に学習することができる。
本稿では,効率的かつ堅牢なディープラーニングに基づくターゲット検出手法を提案する。
論文 参考訳(メタデータ) (2022-01-22T03:25:24Z) - Activation to Saliency: Forming High-Quality Labels for Unsupervised
Salient Object Detection [54.92703325989853]
本稿では,高品質なサリエンシキューを効果的に生成する2段階アクティベーション・ツー・サリエンシ(A2S)フレームワークを提案する。
トレーニングプロセス全体において、私たちのフレームワークにヒューマンアノテーションは関与していません。
本フレームワークは,既存のUSOD法と比較して高い性能を示した。
論文 参考訳(メタデータ) (2021-12-07T11:54:06Z) - Remote Sensing Image Super-resolution and Object Detection: Benchmark
and State of the Art [7.74389937337756]
本稿では、リモートセンシング画像の現在のデータセットとオブジェクト検出方法(深層学習に基づく)についてレビューする。
本稿では,大規模かつ一般公開なリモートセンシング超解像オブジェクト検出データセットを提案する。
また、画像超解像に基づく物体検出のベンチマークを行うために、Residual Feature aggregate (MCGR) と補助YOLOv5検出器を備えた新しいマルチクラスサイクル超解像対向ネットワークを提案する。
論文 参考訳(メタデータ) (2021-11-05T04:56:34Z) - Discovery-and-Selection: Towards Optimal Multiple Instance Learning for
Weakly Supervised Object Detection [86.86602297364826]
複数インスタンス学習(DS-MIL)と融合した発見・選択手法を提案する。
我々の提案するDS-MILアプローチは,最先端の性能を報告しながら,ベースラインを一貫して改善することができる。
論文 参考訳(メタデータ) (2021-10-18T07:06:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。