論文の概要: Active Self-Semi-Supervised Learning for Few Labeled Samples
- arxiv url: http://arxiv.org/abs/2203.04560v3
- Date: Sat, 02 Nov 2024 01:53:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:40:55.752156
- Title: Active Self-Semi-Supervised Learning for Few Labeled Samples
- Title(参考訳): 少数のラベル付きサンプルに対するアクティブ自己半教師付き学習
- Authors: Ziting Wen, Oscar Pizarro, Stefan Williams,
- Abstract要約: アノテーションを限定した深層モデルのトレーニングは、さまざまな実践領域に適用する上で、大きな課題となる。
我々は,シンプルで効果的な自己半教師付き学習(AS3L)を提案する。
擬似ラベル(PPL)を用いたAS3Lブートストラップ半教師付きモデル
我々は,正確なPPLを得るために,能動的学習とラベル伝搬戦略を開発した。
- 参考スコア(独自算出の注目度): 4.713652957384158
- License:
- Abstract: Training deep models with limited annotations poses a significant challenge when applied to diverse practical domains. Employing semi-supervised learning alongside the self-supervised model offers the potential to enhance label efficiency. However, this approach faces a bottleneck in reducing the need for labels. We observed that the semi-supervised model disrupts valuable information from self-supervised learning when only limited labels are available. To address this issue, this paper proposes a simple yet effective framework, active self-semi-supervised learning (AS3L). AS3L bootstraps semi-supervised models with prior pseudo-labels (PPL). These PPLs are obtained by label propagation over self-supervised features. Based on the observations the accuracy of PPL is not only affected by the quality of features but also by the selection of the labeled samples. We develop active learning and label propagation strategies to obtain accurate PPL. Consequently, our framework can significantly improve the performance of models in the case of limited annotations while demonstrating fast convergence. On the image classification tasks across four datasets, our method outperforms the baseline by an average of 5.4\%. Additionally, it achieves the same accuracy as the baseline method in about 1/3 of the training time.
- Abstract(参考訳): アノテーションを限定した深層モデルのトレーニングは、さまざまな実践領域に適用する上で、大きな課題となる。
半教師付き学習を自己教師付きモデルと併用することで、ラベル効率を高めることができる。
しかし、このアプローチはラベルの必要性を減らす上でボトルネックに直面している。
ラベルが限定されている場合,セミ教師付きモデルは自己教師付き学習から貴重な情報を妨害する。
この問題に対処するために,本研究では,シンプルで効果的な自己半教師付き学習(AS3L)を提案する。
AS3L は擬似ラベル (PPL) を持つ半教師付きモデルをブートストラップする。
これらのPPLは、自己監督的特徴よりもラベルの伝播によって得られる。
観察結果から,PPLの精度は特徴の質だけでなく,ラベル付き試料の選択にも影響されることがわかった。
我々は,正確なPPLを得るために,能動的学習とラベル伝搬戦略を開発した。
その結果,アノテーションが限定された場合,高速収束を示すとともに,モデルの性能を著しく向上させることができることがわかった。
4つのデータセットにまたがる画像分類タスクにおいて,本手法はベースラインを平均5.4\%上回る性能を示した。
さらに、トレーニング時間の約1/3において、ベースライン法と同じ精度を達成する。
関連論文リスト
- Incremental Self-training for Semi-supervised Learning [56.57057576885672]
ISTは単純だが有効であり、既存の自己学習に基づく半教師あり学習手法に適合する。
提案したISTを5つのデータセットと2種類のバックボーンで検証し,認識精度と学習速度を効果的に向上させる。
論文 参考訳(メタデータ) (2024-04-14T05:02:00Z) - Semi-Supervised Class-Agnostic Motion Prediction with Pseudo Label
Regeneration and BEVMix [59.55173022987071]
クラス非依存動作予測のための半教師あり学習の可能性について検討する。
我々のフレームワークは一貫性に基づく自己学習パラダイムを採用しており、ラベルのないデータからモデルを学習することができる。
本手法は,弱さと完全教師付き手法に匹敵する性能を示す。
論文 参考訳(メタデータ) (2023-12-13T09:32:50Z) - All Points Matter: Entropy-Regularized Distribution Alignment for
Weakly-supervised 3D Segmentation [67.30502812804271]
擬似ラベルは、弱い教師付き3Dセグメンテーションタスクに広く使われており、学習に使えるのはスパース・グラウンド・トラス・ラベルのみである。
本稿では,生成した擬似ラベルを正規化し,擬似ラベルとモデル予測とのギャップを効果的に狭めるための新しい学習戦略を提案する。
論文 参考訳(メタデータ) (2023-05-25T08:19:31Z) - Active Self-Training for Weakly Supervised 3D Scene Semantic
Segmentation [17.27850877649498]
本稿では,自己学習と能動的学習を組み合わせた3次元シーンの弱教師付きセグメンテーション手法を提案する。
提案手法は,従来の作業やベースラインよりもシーンセグメンテーションを改善する効果的な手法であることを示す。
論文 参考訳(メタデータ) (2022-09-15T06:00:25Z) - Semi-supervised 3D Object Detection with Proficient Teachers [114.54835359657707]
自律運転のシナリオにおけるクラウドベースの3Dオブジェクト検出器の優位性は、大量の正確なラベル付きサンプルに大きく依存している。
Pseudo-Labeling法はSSLフレームワークで一般的に使用されているが、教師モデルの低品質な予測は、その性能を著しく制限している。
そこで本研究では,教師モデルをさらに高度化することで,半教師付き3次元物体検出のためのPseudo-Labelingフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-26T04:54:03Z) - Open-Set Semi-Supervised Learning for 3D Point Cloud Understanding [62.17020485045456]
半教師付き学習(SSL)では、ラベル付きデータと同じ分布からラベル付きデータが引き出されることが一般的である。
サンプル重み付けによりラベルなしデータを選択的に活用することを提案する。
論文 参考訳(メタデータ) (2022-05-02T16:09:17Z) - Uncertainty-aware Self-training for Text Classification with Few Labels [54.13279574908808]
本研究は,アノテーションのボトルネックを軽減するための半教師あり学習手法の1つとして,自己学習について研究する。
本稿では,基礎となるニューラルネットワークの不確実性推定を取り入れて,自己学習を改善する手法を提案する。
本手法では,クラス毎に20~30個のラベル付きサンプルをトレーニングに利用し,完全教師付き事前学習言語モデルの3%以内で検証を行う。
論文 参考訳(メタデータ) (2020-06-27T08:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。