論文の概要: MUS-CDB: Mixed Uncertainty Sampling with Class Distribution Balancing
for Active Annotation in Aerial Object Detection
- arxiv url: http://arxiv.org/abs/2212.02804v1
- Date: Tue, 6 Dec 2022 07:50:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 17:00:43.531417
- Title: MUS-CDB: Mixed Uncertainty Sampling with Class Distribution Balancing
for Active Annotation in Aerial Object Detection
- Title(参考訳): MUS-CDB:空中物体検出におけるアクティブアノテーションのためのクラス分散バランス付き混合不確かさサンプリング
- Authors: Dong Liang and Jing-Wei Zhang and Ying-Peng Tang and Sheng-Jun Hang
- Abstract要約: 最近の空中物体検出モデルは大量のラベル付きトレーニングデータに依存している。
アクティブラーニングは、情報的および代表的未ラベルサンプルを選択的にクエリすることで、データラベリングコストの低減に有効である。
本稿では,費用対効果の高い空中物体検出のための新しい能動学習手法を提案する。
- 参考スコア(独自算出の注目度): 10.0972970881021
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent aerial object detection models rely on a large amount of labeled
training data, which requires unaffordable manual labeling costs in large
aerial scenes with dense objects. Active learning is effective in reducing the
data labeling cost by selectively querying the informative and representative
unlabelled samples. However, existing active learning methods are mainly with
class-balanced setting and image-based querying for generic object detection
tasks, which are less applicable to aerial object detection scenario due to the
long-tailed class distribution and dense small objects in aerial scenes. In
this paper, we propose a novel active learning method for cost-effective aerial
object detection. Specifically, both object-level and image-level
informativeness are considered in the object selection to refrain from
redundant and myopic querying. Besides, an easy-to-use class-balancing
criterion is incorporated to favor the minority objects to alleviate the
long-tailed class distribution problem in model training. To fully utilize the
queried information, we further devise a training loss to mine the latent
knowledge in the undiscovered image regions. Extensive experiments are
conducted on the DOTA-v1.0 and DOTA-v2.0 benchmarks to validate the
effectiveness of the proposed method. The results show that it can save more
than 75% of the labeling cost to reach the same performance compared to the
baselines and state-of-the-art active object detection methods. Code is
available at https://github.com/ZJW700/MUS-CDB
- Abstract(参考訳): 最近の航空物体検出モデルは、大量のラベル付き訓練データに依存しており、密集した物体を持つ大きな空中シーンでは、望ましくない手動ラベリングコストを必要とする。
アクティブラーニングは、情報的および代表的未ラベルサンプルを選択的にクエリすることで、データラベリングコストの低減に有効である。
しかし,既存のアクティブラーニング手法は,主にクラスバランスの設定と画像に基づく一般的な物体検出タスクのクエリが特徴であり,空域における長い尾のクラス分布や密集した小物体による空中物体検出のシナリオには適用できない。
本稿では,コスト効率の高い空中物体検出のための新しい能動学習手法を提案する。
具体的には、冗長で近視的なクエリを控えるために、オブジェクトの選択において、オブジェクトレベルとイメージレベルのインフォメーションの両方が考慮される。
また、モデルトレーニングにおけるロングテールクラス分散問題を軽減するためにマイノリティオブジェクトを好むために、使いやすいクラスバランス基準が組み込まれている。
問い合わせ情報を完全に活用するために,未発見画像領域における潜伏知識をマイニングするためのトレーニング損失を更に考案する。
提案手法の有効性を検証するため,DOTA-v1.0およびDOTA-v2.0ベンチマークを用いて実験を行った。
その結果,ラベリングコストの75%以上を削減でき,ベースラインや最先端のアクティブオブジェクト検出法と同等の性能が得られることがわかった。
コードはhttps://github.com/ZJW700/MUS-CDBで入手できる。
関連論文リスト
- ALWOD: Active Learning for Weakly-Supervised Object Detection [14.063031246614488]
我々は、弱い、半教師付きオブジェクト検出パラダイムでアクティブな学習を融合させる新しいフレームワークALWODを提案する。
ALWODは、一部のラベル付きだが戦略的に選択された画像インスタンスで訓練されたODと、完全にラベル付けされたデータに依存するODとのギャップを著しく狭めることを示した。
論文 参考訳(メタデータ) (2023-09-14T17:59:05Z) - Improved Region Proposal Network for Enhanced Few-Shot Object Detection [23.871860648919593]
Few-shot Object Detection (FSOD) メソッドは、古典的なオブジェクト検出手法の限界に対する解決策として登場した。
FSODトレーニング段階において,未ラベルの新規物体を正のサンプルとして検出し,利用するための半教師付きアルゴリズムを開発した。
地域提案ネットワーク(RPN)の階層的サンプリング戦略の改善により,大規模オブジェクトに対するオブジェクト検出モデルの認識が向上する。
論文 参考訳(メタデータ) (2023-08-15T02:35:59Z) - USD: Unknown Sensitive Detector Empowered by Decoupled Objectness and
Segment Anything Model [14.080744645704751]
Open World Object Detection (OWOD) は、新しいコンピュータビジョンタスクである。
本稿では,この2つの境界の学習をデコーダ層に分割する,シンプルで効果的な学習戦略であるDecoupled Objectness Learning(DOL)を提案する。
また、擬似ラベルとソフトウェイト戦略を用いてノイズの負の影響を緩和する補助的スーパービジョンフレームワーク(ASF)も導入する。
論文 参考訳(メタデータ) (2023-06-04T06:42:09Z) - SOOD: Towards Semi-Supervised Oriented Object Detection [57.05141794402972]
本稿では, 主流の擬似ラベリングフレームワーク上に構築された, SOOD と呼ばれる, 半教師付きオブジェクト指向物体検出モデルを提案する。
提案した2つの損失をトレーニングした場合,SOODはDOTA-v1.5ベンチマークの様々な設定下で,最先端のSSOD法を超越することを示した。
論文 参考訳(メタデータ) (2023-04-10T11:10:42Z) - MuRAL: Multi-Scale Region-based Active Learning for Object Detection [20.478741635006116]
オブジェクト検出のためのマルチスケール領域ベースアクティブラーニング(MuRAL)と呼ばれる新しい手法を提案する。
MuRALは、様々なスケールの情報領域を特定して、よく学習されたオブジェクトのアノテーションコストを削減する。
提案手法は,Cityscapes および MS COCO データセットの粗粒度および細粒度ベースラインを網羅する。
論文 参考訳(メタデータ) (2023-03-29T12:52:27Z) - Identification of Novel Classes for Improving Few-Shot Object Detection [12.013345715187285]
Few-shot Object Detection (FSOD) メソッドは、クラス毎に少数のトレーニングサンプルのみを使用して、堅牢なオブジェクト検出を実現することで、改善を提供する。
我々は、FSOD性能を向上させるためのトレーニング中に、未ラベルの新規物体を正のサンプルとして検出し、利用するための半教師付きアルゴリズムを開発した。
実験の結果,本手法は既存のSOTA FSOD法よりも有効であり,優れた結果が得られた。
論文 参考訳(メタデータ) (2023-03-18T14:12:52Z) - Label, Verify, Correct: A Simple Few Shot Object Detection Method [93.84801062680786]
トレーニングセットから高品質な擬似アノテーションを抽出するための簡単な擬似ラベリング手法を提案する。
擬似ラベリングプロセスの精度を向上させるための2つの新しい手法を提案する。
提案手法は,既存手法と比較して,最先端ないし第2の性能を実現する。
論文 参考訳(メタデータ) (2021-12-10T18:59:06Z) - Activation to Saliency: Forming High-Quality Labels for Unsupervised
Salient Object Detection [54.92703325989853]
本稿では,高品質なサリエンシキューを効果的に生成する2段階アクティベーション・ツー・サリエンシ(A2S)フレームワークを提案する。
トレーニングプロセス全体において、私たちのフレームワークにヒューマンアノテーションは関与していません。
本フレームワークは,既存のUSOD法と比較して高い性能を示した。
論文 参考訳(メタデータ) (2021-12-07T11:54:06Z) - Discovery-and-Selection: Towards Optimal Multiple Instance Learning for
Weakly Supervised Object Detection [86.86602297364826]
複数インスタンス学習(DS-MIL)と融合した発見・選択手法を提案する。
我々の提案するDS-MILアプローチは,最先端の性能を報告しながら,ベースラインを一貫して改善することができる。
論文 参考訳(メタデータ) (2021-10-18T07:06:57Z) - Few-Cost Salient Object Detection with Adversarial-Paced Learning [95.0220555274653]
本稿では,少数のトレーニング画像にのみ手動アノテーションを応用して,効果的なサルエント物体検出モデルを学習することを提案する。
我々は,このタスクを,少額の有能な物体検出とみなし,少数のコストの学習シナリオを促進するために,APL(Adversarialpaced Learning)ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-05T14:15:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。