論文の概要: Box-Level Active Detection
- arxiv url: http://arxiv.org/abs/2303.13089v1
- Date: Thu, 23 Mar 2023 08:06:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 15:24:55.172132
- Title: Box-Level Active Detection
- Title(参考訳): ボックスレベルアクティブ検出
- Authors: Mengyao Lyu, Jundong Zhou, Hui Chen, Yijie Huang, Dongdong Yu, Yaqian
Li, Yandong Guo, Yuchen Guo, Liuyu Xiang, Guiguang Ding
- Abstract要約: ボックスベース1サイクル当たりの予算を制御する,ボックスレベルのアクティブ検出フレームワークを導入する。
我々は,人間のアノテーションとモデルインテリジェンスの両方を活用するために,補完的擬似アクティブストラテジー(ComPAS)を提案する。
ComPASは、統一された設定で4つの設定で10の競争相手を上回っている。
- 参考スコア(独自算出の注目度): 47.41635810670186
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Active learning selects informative samples for annotation within budget,
which has proven efficient recently on object detection. However, the widely
used active detection benchmarks conduct image-level evaluation, which is
unrealistic in human workload estimation and biased towards crowded images.
Furthermore, existing methods still perform image-level annotation, but equally
scoring all targets within the same image incurs waste of budget and redundant
labels. Having revealed above problems and limitations, we introduce a
box-level active detection framework that controls a box-based budget per
cycle, prioritizes informative targets and avoids redundancy for fair
comparison and efficient application.
Under the proposed box-level setting, we devise a novel pipeline, namely
Complementary Pseudo Active Strategy (ComPAS). It exploits both human
annotations and the model intelligence in a complementary fashion: an efficient
input-end committee queries labels for informative objects only; meantime
well-learned targets are identified by the model and compensated with
pseudo-labels. ComPAS consistently outperforms 10 competitors under 4 settings
in a unified codebase. With supervision from labeled data only, it achieves
100% supervised performance of VOC0712 with merely 19% box annotations. On the
COCO dataset, it yields up to 4.3% mAP improvement over the second-best method.
ComPAS also supports training with the unlabeled pool, where it surpasses 90%
COCO supervised performance with 85% label reduction. Our source code is
publicly available at https://github.com/lyumengyao/blad.
- Abstract(参考訳): アクティブラーニングは、最近オブジェクト検出において効率的であることが証明された予算内でアノテーションのための情報サンプルを選択する。
しかし、広く使われているアクティブ検出ベンチマークは、人間のワークロード推定では非現実的であり、混み合ったイメージに偏りがある画像レベルの評価を行う。
さらに、既存のメソッドは画像レベルのアノテーションを実行するが、同じイメージ内のすべてのターゲットを等しくスコアリングすることは、予算と冗長なラベルを浪費する。
上記の問題と限界を明らかにし,ボックスレベルのアクティブ検出フレームワークを導入し,ボックスベースの予算をサイクル毎に制御し,情報的目標を優先順位付けし,公平な比較と効率的なアプリケーションのための冗長性を回避する。
提案するボックスレベル設定では,新たなパイプライン,すなわちcompresive pseudo active strategy (compas) を考案する。
それは人間のアノテーションとモデルインテリジェンスの両方を補完的に利用し、効率的なインプット・エンド委員会が情報的対象のみを問うラベルを検索する一方で、よく学習されたターゲットはモデルによって識別され、擬似ラベルで補償される。
ComPASは、統一コードベースで4つの設定で10の競合より一貫して優れている。
ラベル付きデータのみの監視により、19%のボックスアノテーションでVOC0712の100%の教師付きパフォーマンスを実現している。
COCOデータセットでは、第2ベット法よりも最大4.3%のmAP改善が得られる。
ComPASはラベルなしのプールでのトレーニングもサポートしており、85%のラベル削減でCOCOが監督するパフォーマンスを90%以上越えている。
ソースコードはhttps://github.com/lyumengyao/blad.com/で公開しています。
関連論文リスト
- LEOD: Label-Efficient Object Detection for Event Cameras [25.799170829163845]
イベントカメラによるオブジェクト検出は、センサーの低レイテンシと高ダイナミックレンジの恩恵を受ける。
時間分解能が高いため、教師付きトレーニングのためにイベントストリームを完全にラベル付けするのはコストがかかる。
本稿では,ラベル効率の高いイベントベース検出手法LEODを提案する。
論文 参考訳(メタデータ) (2023-11-29T00:09:45Z) - One-bit Supervision for Image Classification: Problem, Solution, and
Beyond [114.95815360508395]
本稿では,ラベルの少ない新しい学習環境である,画像分類のための1ビット監督について述べる。
多段階学習パラダイムを提案し、負ラベル抑圧を半教師付き半教師付き学習アルゴリズムに組み込む。
複数のベンチマークにおいて、提案手法の学習効率は、フルビットの半教師付き監視手法よりも優れている。
論文 参考訳(メタデータ) (2023-11-26T07:39:00Z) - MUS-CDB: Mixed Uncertainty Sampling with Class Distribution Balancing
for Active Annotation in Aerial Object Detection [40.94800050576902]
最近の空中物体検出モデルは大量のラベル付きトレーニングデータに依存している。
アクティブラーニングは、情報および代表的未ラベルサンプルを選択的にクエリすることで、データラベリングコストを効果的に削減する。
本稿では,費用対効果の高い空中物体検出のための新しい能動学習手法を提案する。
論文 参考訳(メタデータ) (2022-12-06T07:50:00Z) - One Class One Click: Quasi Scene-level Weakly Supervised Point Cloud
Semantic Segmentation with Active Learning [29.493759008637532]
One Class One Click (OCOC)は、ポイントレベルのアノテーションとシーンレベルのアノテーションをカプセル化した、低コストで情報的な準シーンレベルのラベルである。
グローバル・ローカル・パースペクティブからの弱い監督を伴って、希少なラベルを活用するために、活発な弱監督フレームワークが提案されている。
F1スコアの平均値において、実際のシーンレベルの弱い監督手法を最大25%上回っている。
論文 参考訳(メタデータ) (2022-11-23T01:23:26Z) - Active Learning Strategies for Weakly-supervised Object Detection [34.25737761591651]
BiBは、弱い教師付き検出器の文書化された障害モードに対処するために設計された、新しいアクティブな学習戦略である。
BiBは、完全に監督されたFast RCNNのパフォーマンスの97%に達し、VOC07のフルアノテートイメージの10%に過ぎなかった。
COCOでは、クラス毎に平均10の完全な注釈付き画像、またはトレーニングセットの1%を使用すれば、弱教師付き検出器とフル教師付きFast RCNN間のパフォーマンスギャップを70%以上削減できる。
論文 参考訳(メタデータ) (2022-07-25T12:22:01Z) - Rethinking Pseudo Labels for Semi-Supervised Object Detection [84.697097472401]
物体検出に適した確実な擬似ラベルを導入する。
我々は,クラス不均衡問題を緩和するために,各カテゴリの擬似ラベルと再重み付き損失関数を生成するために使用する閾値を動的に調整する。
提案手法では,COCOのラベル付きデータのみを用いて,教師付きベースラインを最大10%改善する。
論文 参考訳(メタデータ) (2021-06-01T01:32:03Z) - WSSOD: A New Pipeline for Weakly- and Semi-Supervised Object Detection [75.80075054706079]
弱機能および半教師付きオブジェクト検出フレームワーク(WSSOD)を提案する。
エージェント検出器は、まず関節データセット上でトレーニングされ、弱注釈画像上で擬似境界ボックスを予測するために使用される。
提案フレームワークはPASCAL-VOC と MSCOCO のベンチマークで顕著な性能を示し,完全教師付き環境で得られたものと同等の性能を達成している。
論文 参考訳(メタデータ) (2021-05-21T11:58:50Z) - Unbiased Teacher for Semi-Supervised Object Detection [50.0087227400306]
SS-OD(Semi-Supervised Object Detection)を再検討し,SS-ODにおける擬似ラベルバイアス問題を特定する。
学生と徐々に進歩する教師を相互に利益ある方法で共同で訓練するシンプルで効果的なアプローチであるUnbiased Teacherを紹介します。
論文 参考訳(メタデータ) (2021-02-18T17:02:57Z) - Semi-supervised Batch Active Learning via Bilevel Optimization [89.37476066973336]
両レベル最適化によるデータ要約問題として,本手法を定式化する。
本手法は,ラベル付きサンプルがほとんど存在しない場合,レジーム内のキーワード検出タスクにおいて極めて有効であることを示す。
論文 参考訳(メタデータ) (2020-10-19T16:53:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。