論文の概要: Active Self-Semi-Supervised Learning for Few Labeled Samples Fast
Training
- arxiv url: http://arxiv.org/abs/2203.04560v1
- Date: Wed, 9 Mar 2022 07:45:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-10 15:14:11.018257
- Title: Active Self-Semi-Supervised Learning for Few Labeled Samples Fast
Training
- Title(参考訳): ラベル付きサンプルの高速学習のためのアクティブセルフセミビジョン学習
- Authors: Ziting Wen, Oscar Pizarro, Stefan Williams
- Abstract要約: 半教師付き学習は、ほとんどアノテーションなしでのトレーニングで大きな成功を収めた。
ランダムサンプリングによって生成された低品質なラベル付きサンプルは、アノテーションの数を減らし続けるのが困難である。
擬似ラベルが優れた半教師付きモデルをブートストラップする,アクティブな自己半教師付きトレーニングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 3.4806267677524896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Faster training and fewer annotations are two key issues for applying deep
models to various practical domains. Now, semi-supervised learning has achieved
great success in training with few annotations. However, low-quality labeled
samples produced by random sampling make it difficult to continue to reduce the
number of annotations. In this paper we propose an active self-semi-supervised
training framework that bootstraps semi-supervised models with good prior
pseudo-labels, where the priors are obtained by label propagation over
self-supervised features. Because the accuracy of the prior is not only
affected by the quality of features, but also by the selection of the labeled
samples. We develop active learning and label propagation strategies to obtain
better prior pseudo-labels. Consequently, our framework can greatly improve the
performance of models with few annotations and greatly reduce the training
time. Experiments on three semi-supervised learning benchmarks demonstrate
effectiveness. Our method achieves similar accuracy to standard semi-supervised
approaches in about 1/3 of the training time, and even outperform them when
fewer annotations are available (84.10\% in CIFAR-10 with 10 labels).
- Abstract(参考訳): トレーニングの高速化とアノテーションの削減は、さまざまな実践領域に深層モデルを適用する上で重要な2つの問題である。
現在、半教師付き学習は、少ないアノテーションでトレーニングで大きな成功を収めている。
しかしながら、ランダムサンプリングによって生成される低品質のラベル付きサンプルは、アノテーションの数を減らすのが難しくなる。
本稿では,自己教師付き特徴のラベル伝搬により先行する先行擬似ラベルを用いた半教師付きモデルのブートストラップを行うアクティブな自己教師付き学習フレームワークを提案する。
なぜなら、事前の精度は特徴の質だけでなく、ラベル付きサンプルの選択によっても影響を受けるからである。
我々は,より優れた擬似ラベルを得るために,能動的学習とラベル伝搬戦略を開発した。
その結果,アノテーションをほとんど使わずにモデルの性能を大幅に向上し,トレーニング時間を大幅に短縮できる。
3つの半教師付き学習ベンチマークの実験は効果を示す。
本手法は,訓練時間の約1/3で標準半教師付きアプローチと同様の精度を実現し,アノテーションの少ない場合(cifar-10では84.10\%,ラベル10。
関連論文リスト
- Incremental Self-training for Semi-supervised Learning [56.57057576885672]
ISTは単純だが有効であり、既存の自己学習に基づく半教師あり学習手法に適合する。
提案したISTを5つのデータセットと2種類のバックボーンで検証し,認識精度と学習速度を効果的に向上させる。
論文 参考訳(メタデータ) (2024-04-14T05:02:00Z) - Semi-Supervised Class-Agnostic Motion Prediction with Pseudo Label
Regeneration and BEVMix [59.55173022987071]
クラス非依存動作予測のための半教師あり学習の可能性について検討する。
我々のフレームワークは一貫性に基づく自己学習パラダイムを採用しており、ラベルのないデータからモデルを学習することができる。
本手法は,弱さと完全教師付き手法に匹敵する性能を示す。
論文 参考訳(メタデータ) (2023-12-13T09:32:50Z) - All Points Matter: Entropy-Regularized Distribution Alignment for
Weakly-supervised 3D Segmentation [67.30502812804271]
擬似ラベルは、弱い教師付き3Dセグメンテーションタスクに広く使われており、学習に使えるのはスパース・グラウンド・トラス・ラベルのみである。
本稿では,生成した擬似ラベルを正規化し,擬似ラベルとモデル予測とのギャップを効果的に狭めるための新しい学習戦略を提案する。
論文 参考訳(メタデータ) (2023-05-25T08:19:31Z) - Active Self-Training for Weakly Supervised 3D Scene Semantic
Segmentation [17.27850877649498]
本稿では,自己学習と能動的学習を組み合わせた3次元シーンの弱教師付きセグメンテーション手法を提案する。
提案手法は,従来の作業やベースラインよりもシーンセグメンテーションを改善する効果的な手法であることを示す。
論文 参考訳(メタデータ) (2022-09-15T06:00:25Z) - Semi-supervised 3D Object Detection with Proficient Teachers [114.54835359657707]
自律運転のシナリオにおけるクラウドベースの3Dオブジェクト検出器の優位性は、大量の正確なラベル付きサンプルに大きく依存している。
Pseudo-Labeling法はSSLフレームワークで一般的に使用されているが、教師モデルの低品質な予測は、その性能を著しく制限している。
そこで本研究では,教師モデルをさらに高度化することで,半教師付き3次元物体検出のためのPseudo-Labelingフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-26T04:54:03Z) - Open-Set Semi-Supervised Learning for 3D Point Cloud Understanding [62.17020485045456]
半教師付き学習(SSL)では、ラベル付きデータと同じ分布からラベル付きデータが引き出されることが一般的である。
サンプル重み付けによりラベルなしデータを選択的に活用することを提案する。
論文 参考訳(メタデータ) (2022-05-02T16:09:17Z) - Uncertainty-aware Self-training for Text Classification with Few Labels [54.13279574908808]
本研究は,アノテーションのボトルネックを軽減するための半教師あり学習手法の1つとして,自己学習について研究する。
本稿では,基礎となるニューラルネットワークの不確実性推定を取り入れて,自己学習を改善する手法を提案する。
本手法では,クラス毎に20~30個のラベル付きサンプルをトレーニングに利用し,完全教師付き事前学習言語モデルの3%以内で検証を行う。
論文 参考訳(メタデータ) (2020-06-27T08:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。