論文の概要: Reliable Label Bootstrapping for Semi-Supervised Learning
- arxiv url: http://arxiv.org/abs/2007.11866v2
- Date: Thu, 25 Feb 2021 11:11:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 12:39:39.163047
- Title: Reliable Label Bootstrapping for Semi-Supervised Learning
- Title(参考訳): 半教師付き学習のための信頼できるラベルブートストラップ
- Authors: Paul Albert, Diego Ortego, Eric Arazo, Noel E. O'Connor, Kevin
McGuinness
- Abstract要約: ReLaBは教師なしプレプロセッシングアルゴリズムであり、極めて低い監督条件下での半教師付きアルゴリズムの性能を改善する。
本稿では,ネットワークアーキテクチャと自己教師型アルゴリズムの選択が,ラベルの伝播を成功させる重要な要因であることを示す。
CIFAR-10のクラス毎に1つのランダムなラベル付きサンプルを持つ$boldsymbol22.34$の平均エラー率に達し、各クラスのラベル付きサンプルが非常に代表的である場合に、このエラーを$boldsymbol8.46$に下げる。
- 参考スコア(独自算出の注目度): 19.841733658911767
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reducing the amount of labels required to train convolutional neural networks
without performance degradation is key to effectively reduce human annotation
efforts. We propose Reliable Label Bootstrapping (ReLaB), an unsupervised
preprossessing algorithm which improves the performance of semi-supervised
algorithms in extremely low supervision settings. Given a dataset with few
labeled samples, we first learn meaningful self-supervised, latent features for
the data. Second, a label propagation algorithm propagates the known labels on
the unsupervised features, effectively labeling the full dataset in an
automatic fashion. Third, we select a subset of correctly labeled (reliable)
samples using a label noise detection algorithm. Finally, we train a
semi-supervised algorithm on the extended subset. We show that the selection of
the network architecture and the self-supervised algorithm are important
factors to achieve successful label propagation and demonstrate that ReLaB
substantially improves semi-supervised learning in scenarios of very limited
supervision on CIFAR-10, CIFAR-100 and mini-ImageNet. We reach average error
rates of $\boldsymbol{22.34}$ with 1 random labeled sample per class on
CIFAR-10 and lower this error to $\boldsymbol{8.46}$ when the labeled sample in
each class is highly representative. Our work is fully reproducible:
https://github.com/PaulAlbert31/ReLaB.
- Abstract(参考訳): 性能劣化のない畳み込みニューラルネットワークのトレーニングに必要なラベルの量を減らすことが、人間のアノテーションの労力を効果的に削減する鍵となる。
半教師付きアルゴリズムの性能を極めて低い監督設定で向上させる非教師付きプリプロセッシングアルゴリズムである reliable label bootstrapping (relab) を提案する。
ラベル付きサンプルがほとんどないデータセットから、まずデータに対して意味のある自己教師付き潜在機能を学ぶ。
第2に、ラベル伝播アルゴリズムは、教師なし特徴の既知のラベルを伝播し、全データセットを自動的にラベル付けする。
第3に、ラベルノイズ検出アルゴリズムを用いて、正しくラベルされた(信頼できる)サンプルのサブセットを選択する。
最後に,拡張サブセット上で半教師付きアルゴリズムを訓練する。
本稿では,ネットワークアーキテクチャの選択と自己教師付きアルゴリズムがラベル伝播を成功させる重要な要因であることを示すとともに,cifar-10,cifar-100,mini-imagenetにおいて,relabが半教師付き学習を実質的に改善することを示す。
CIFAR-10のクラス毎に1つのランダムなラベル付きサンプルを持つ$\boldsymbol{22.34}$の平均エラー率に達し、各クラスのラベル付きサンプルが非常に代表的である場合に、このエラーを$\boldsymbol{8.46}$に下げる。
私たちの仕事は、完全に再現可能です。
関連論文リスト
- One-bit Supervision for Image Classification: Problem, Solution, and
Beyond [114.95815360508395]
本稿では,ラベルの少ない新しい学習環境である,画像分類のための1ビット監督について述べる。
多段階学習パラダイムを提案し、負ラベル抑圧を半教師付き半教師付き学習アルゴリズムに組み込む。
複数のベンチマークにおいて、提案手法の学習効率は、フルビットの半教師付き監視手法よりも優れている。
論文 参考訳(メタデータ) (2023-11-26T07:39:00Z) - Adaptive Anchor Label Propagation for Transductive Few-Shot Learning [18.29463308334406]
ラベル付きデータによる画像の分類の問題に対処する例は少ない。
識別可能な損失関数を最小化することによりラベル付きデータの特徴埋め込みを適応する新しいアルゴリズムを提案する。
提案アルゴリズムは,1ショット設定と5ショット設定において,標準ラベル伝搬アルゴリズムを最大7%,2%向上させる。
論文 参考訳(メタデータ) (2023-10-30T20:29:31Z) - Manifold DivideMix: A Semi-Supervised Contrastive Learning Framework for
Severe Label Noise [4.90148689564172]
実世界のデータセットには、データセットのどのクラスにも意味のないノイズの多いラベルサンプルが含まれている。
最先端の手法の多くは、IDラベル付きノイズサンプルを半教師付き学習のためのラベルなしデータとして利用する。
自己指導型トレーニングの利点を生かして,すべてのトレーニングデータからの情報を活用することを提案する。
論文 参考訳(メタデータ) (2023-08-13T23:33:33Z) - All Points Matter: Entropy-Regularized Distribution Alignment for
Weakly-supervised 3D Segmentation [67.30502812804271]
擬似ラベルは、弱い教師付き3Dセグメンテーションタスクに広く使われており、学習に使えるのはスパース・グラウンド・トラス・ラベルのみである。
本稿では,生成した擬似ラベルを正規化し,擬似ラベルとモデル予測とのギャップを効果的に狭めるための新しい学習戦略を提案する。
論文 参考訳(メタデータ) (2023-05-25T08:19:31Z) - CTRL: Clustering Training Losses for Label Error Detection [4.49681473359251]
教師付き機械学習では、正確なラベルの使用は高い精度を保証するために極めて重要である。
本稿では,ラベル誤り検出のための新しいフレームワークClustering TRaining Lossesを提案する。
モデルが異なる方法でクリーンでノイズの多いラベルを学習する観察に基づいて、ラベルエラーを2つのステップで検出する。
論文 参考訳(メタデータ) (2022-08-17T18:09:19Z) - S3: Supervised Self-supervised Learning under Label Noise [53.02249460567745]
本稿では,ラベルノイズの存在下での分類の問題に対処する。
提案手法の核心は,サンプルのアノテートラベルと特徴空間内のその近傍のラベルの分布との整合性に依存するサンプル選択機構である。
提案手法は,CIFARCIFAR100とWebVisionやANIMAL-10Nなどの実環境ノイズデータセットの両方で,従来の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2021-11-22T15:49:20Z) - Boosting Semi-Supervised Face Recognition with Noise Robustness [54.342992887966616]
本稿では,自動ラベルによるラベル雑音に対して頑健な半教師付き顔認識に対する効果的な解法を提案する。
そこで我々は,gnが強化するロバストな学習能力に基づく,ノイズロバスト学習ラベリング(nroll)という,半教師付き顔認識ソリューションを開発した。
論文 参考訳(メタデータ) (2021-05-10T14:43:11Z) - Coping with Label Shift via Distributionally Robust Optimisation [72.80971421083937]
分散ロバスト最適化(DRO)に基づく目的最小化モデルを提案する。
そこで我々は,提案した目的を最適化するために,大規模問題に適した勾配降下近位ミラー上昇アルゴリズムを設計し,解析する。
論文 参考訳(メタデータ) (2020-10-23T08:33:04Z) - Analysis of label noise in graph-based semi-supervised learning [2.4366811507669124]
機械学習では、目に見えないデータに一般化できるモデルを監督するためにラベルを取得する必要がある。
多くの場合、私たちのデータのほとんどはラベル付けされていない。
半教師付き学習(SSL)は、ラベルと入力データ分布の関係について強い仮定をすることで緩和する。
論文 参考訳(メタデータ) (2020-09-27T22:13:20Z) - Semi-supervised deep learning based on label propagation in a 2D
embedded space [117.9296191012968]
提案されたソリューションは、少数の教師なしイメージから多数の教師なしイメージにラベルを伝達し、ディープニューラルネットワークモデルをトレーニングする。
本稿では、より正確なラベル付きサンプルを反復してセットから深層ニューラルネットワーク(VGG-16)をトレーニングするループを提案する。
ラベル付きセットがイテレーションに沿って改善されるにつれて、ニューラルネットワークの機能が改善される。
論文 参考訳(メタデータ) (2020-08-02T20:08:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。