論文の概要: Active Learning Strategies for Weakly-supervised Object Detection
- arxiv url: http://arxiv.org/abs/2207.12112v1
- Date: Mon, 25 Jul 2022 12:22:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 14:52:12.838861
- Title: Active Learning Strategies for Weakly-supervised Object Detection
- Title(参考訳): 弱教師付き物体検出のためのアクティブ学習戦略
- Authors: Huy V. Vo, Oriane Sim\'eoni, Spyros Gidaris, Andrei Bursuc, Patrick
P\'erez and Jean Ponce
- Abstract要約: BiBは、弱い教師付き検出器の文書化された障害モードに対処するために設計された、新しいアクティブな学習戦略である。
BiBは、完全に監督されたFast RCNNのパフォーマンスの97%に達し、VOC07のフルアノテートイメージの10%に過ぎなかった。
COCOでは、クラス毎に平均10の完全な注釈付き画像、またはトレーニングセットの1%を使用すれば、弱教師付き検出器とフル教師付きFast RCNN間のパフォーマンスギャップを70%以上削減できる。
- 参考スコア(独自算出の注目度): 34.25737761591651
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object detectors trained with weak annotations are affordable alternatives to
fully-supervised counterparts. However, there is still a significant
performance gap between them. We propose to narrow this gap by fine-tuning a
base pre-trained weakly-supervised detector with a few fully-annotated samples
automatically selected from the training set using ``box-in-box'' (BiB), a
novel active learning strategy designed specifically to address the
well-documented failure modes of weakly-supervised detectors. Experiments on
the VOC07 and COCO benchmarks show that BiB outperforms other active learning
techniques and significantly improves the base weakly-supervised detector's
performance with only a few fully-annotated images per class. BiB reaches 97%
of the performance of fully-supervised Fast RCNN with only 10% of
fully-annotated images on VOC07. On COCO, using on average 10 fully-annotated
images per class, or equivalently 1% of the training set, BiB also reduces the
performance gap (in AP) between the weakly-supervised detector and the
fully-supervised Fast RCNN by over 70%, showing a good trade-off between
performance and data efficiency. Our code is publicly available at
https://github.com/huyvvo/BiB.
- Abstract(参考訳): 弱いアノテーションで訓練されたオブジェクト検出器は、完全な教師付きオブジェクトに代わる手頃な選択肢である。
しかし、両者の間には依然として大きなパフォーマンス差がある。
弱検出検出器の文書化障害モードに対処するために設計された,新たなアクティブ学習戦略である 'box-in-box' (BiB) を用いて,トレーニングセットから自動で完全注釈付きサンプルを自動選択して,ベーストレーニング済みの弱検出検出器を微調整することにより,このギャップを狭めることを提案する。
VOC07とCOCOベンチマークの実験は、BiBが他のアクティブな学習技術より優れており、クラスごとの完全な注釈付き画像しか持たない弱教師付き検出器の性能が著しく向上していることを示している。
BiBは、完全に監督されたFast RCNNのパフォーマンスの97%に達し、VOC07のフルアノテートイメージの10%に過ぎなかった。
COCOでは、クラス当たり平均10の完全な注釈付き画像、あるいはトレーニングセットの1%に相当するものを使用して、弱教師付き検出器とフル教師付きFast RCNNの間のパフォーマンスギャップ(AP)を70%以上削減し、パフォーマンスとデータ効率のトレードオフを示す。
私たちのコードはhttps://github.com/huyvvo/bibで公開されています。
関連論文リスト
- ContraCluster: Learning to Classify without Labels by Contrastive
Self-Supervision and Prototype-Based Semi-Supervision [7.819942809508631]
本研究では,クラスタリングとコントラスト型自己教師学習の能力を組み合わせた教師なし画像分類手法であるContraClusterを提案する。
ContraClusterは、(1)コントラスト型自己監督型事前訓練(CPT)、(2)コントラスト型プロトタイプサンプリング(CPS)、(3)プロトタイプ型半教師型微調整(PB-SFT)の3段階からなる。
我々は、CIFAR-10、STL-10、ImageNet-10などの標準ベンチマークデータセットに対して、ContraClusterが新しい最先端結果を達成することを実証的に示す。
論文 参考訳(メタデータ) (2023-04-19T01:51:08Z) - Box-Level Active Detection [47.41635810670186]
ボックスベース1サイクル当たりの予算を制御する,ボックスレベルのアクティブ検出フレームワークを導入する。
我々は,人間のアノテーションとモデルインテリジェンスの両方を活用するために,補完的擬似アクティブストラテジー(ComPAS)を提案する。
ComPASは、統一された設定で4つの設定で10の競争相手を上回っている。
論文 参考訳(メタデータ) (2023-03-23T08:06:10Z) - Masked Unsupervised Self-training for Zero-shot Image Classification [98.23094305347709]
Masked Unsupervised Self-Training (MUST)は、疑似ラベルと生画像という2つの異なる、補完的な監督源を活用する新しいアプローチである。
MUSTはCLIPを大きなマージンで改善し、教師なしと教師なしの分類のパフォーマンスギャップを狭める。
論文 参考訳(メタデータ) (2022-06-07T02:03:06Z) - Semi-Weakly Supervised Object Detection by Sampling Pseudo Ground-Truth
Boxes [9.827002225566073]
本稿では,オブジェクト検出のための弱い半教師付きトレーニング手法を提案する。
弱ラベル画像の情報とともに、少数の完全ラベル画像のみを活用することにより、最先端のパフォーマンスを実現する。
特に,我々の一般的なサンプリングベース学習戦略は,オンライン方式で擬似接地構文(GT)境界アノテーションを生成する。
論文 参考訳(メタデータ) (2022-04-01T00:44:42Z) - Activation to Saliency: Forming High-Quality Labels for Unsupervised
Salient Object Detection [54.92703325989853]
本稿では,高品質なサリエンシキューを効果的に生成する2段階アクティベーション・ツー・サリエンシ(A2S)フレームワークを提案する。
トレーニングプロセス全体において、私たちのフレームワークにヒューマンアノテーションは関与していません。
本フレームワークは,既存のUSOD法と比較して高い性能を示した。
論文 参考訳(メタデータ) (2021-12-07T11:54:06Z) - To be Critical: Self-Calibrated Weakly Supervised Learning for Salient
Object Detection [95.21700830273221]
弱教師付き有色物体検出(WSOD)は,画像レベルのアノテーションを用いた有色度モデルの開発を目的としている。
擬似ラベルとネットワーク予測の相互校正ループを明確に設定し,自己校正学習戦略を提案する。
十分に整合したアノテーションを持つはるかに小さなデータセットであっても、モデルがより優れたパフォーマンスと一般化性を達成するのに役立ちます。
論文 参考訳(メタデータ) (2021-09-04T02:45:22Z) - Towards Reducing Labeling Cost in Deep Object Detection [61.010693873330446]
本稿では,検知器の不確実性と頑健性の両方を考慮した,アクティブラーニングのための統一的なフレームワークを提案する。
提案手法は, 確率分布のドリフトを抑えながら, 極めて確実な予測を擬似ラベル化することができる。
論文 参考訳(メタデータ) (2021-06-22T16:53:09Z) - Unsupervised Class-Incremental Learning Through Confusion [0.4604003661048266]
入ってくるデータを新しいクラスとして訓練することによるネットワークの混乱を生かした新規性検出手法を提案する。
この検出方法中にクラスアンバランスを組み込むことで、パフォーマンスが大幅に向上することがわかった。
論文 参考訳(メタデータ) (2021-04-09T15:58:43Z) - Many-shot from Low-shot: Learning to Annotate using Mixed Supervision
for Object Detection [27.354492072251492]
オンラインアノテーションモジュール(OAM)は、弱いラベル付き画像の大きなボリュームから、多数の強調可能なアノテーションセットを生成することを学ぶ。
我々のOAMは、完全に教師された2段階のオブジェクト検出手法で共同で訓練することができ、オンザフライで追加のトレーニングアノテーションを提供する。
OAMとFast(er) R-CNNの統合により、PASCAL VOC 2007とMS-COCOベンチマークで17%$mAP、9%$AP50のパフォーマンスが向上し、混合監視による競合メソッドよりも大幅に向上した。
論文 参考訳(メタデータ) (2020-08-21T22:06:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。