論文の概要: Boosting Semi-Supervised Face Recognition with Noise Robustness
- arxiv url: http://arxiv.org/abs/2105.04431v1
- Date: Mon, 10 May 2021 14:43:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 14:49:24.657227
- Title: Boosting Semi-Supervised Face Recognition with Noise Robustness
- Title(参考訳): ノイズロバスト性を考慮した半監督型顔認識
- Authors: Yuchi Liu, Hailin Shi, Hang Du, Rui Zhu, Jun Wang, Liang Zheng, and
Tao Mei
- Abstract要約: 本稿では,自動ラベルによるラベル雑音に対して頑健な半教師付き顔認識に対する効果的な解法を提案する。
そこで我々は,gnが強化するロバストな学習能力に基づく,ノイズロバスト学習ラベリング(nroll)という,半教師付き顔認識ソリューションを開発した。
- 参考スコア(独自算出の注目度): 54.342992887966616
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although deep face recognition benefits significantly from large-scale
training data, a current bottleneck is the labelling cost. A feasible solution
to this problem is semi-supervised learning, exploiting a small portion of
labelled data and large amounts of unlabelled data. The major challenge,
however, is the accumulated label errors through auto-labelling, compromising
the training. This paper presents an effective solution to semi-supervised face
recognition that is robust to the label noise aroused by the auto-labelling.
Specifically, we introduce a multi-agent method, named GroupNet (GN), to endow
our solution with the ability to identify the wrongly labelled samples and
preserve the clean samples. We show that GN alone achieves the leading accuracy
in traditional supervised face recognition even when the noisy labels take over
50\% of the training data. Further, we develop a semi-supervised face
recognition solution, named Noise Robust Learning-Labelling (NRoLL), which is
based on the robust training ability empowered by GN. It starts with a small
amount of labelled data and consequently conducts high-confidence labelling on
a large amount of unlabelled data to boost further training. The more data is
labelled by NRoLL, the higher confidence is with the label in the dataset. To
evaluate the competitiveness of our method, we run NRoLL with a rough condition
that only one-fifth of the labelled MSCeleb is available and the rest is used
as unlabelled data. On a wide range of benchmarks, our method compares
favorably against the state-of-the-art methods.
- Abstract(参考訳): 深部顔認識は大規模トレーニングデータから大きなメリットがあるが、現在のボトルネックはラベル付けコストである。
この問題に対する実現可能な解決策は半教師付き学習であり、ラベル付きデータのごく一部と大量の未ラベルデータを利用する。
しかしながら、最大の課題は、自動ラベリングによるラベルエラーの蓄積と、トレーニングの妥協である。
本稿では,自動ラベルによるラベル雑音に対して頑健な半教師付き顔認識に対する効果的な解法を提案する。
具体的には,グループネット(GN)と呼ばれるマルチエージェント手法を導入し,不正にラベル付けされたサンプルを識別し,クリーンなサンプルを保存する。
ノイズラベルがトレーニングデータの50%以上を占める場合においても,従来の教師付き顔認証において,GNだけで先行精度を達成できることを示す。
さらに,GNによって強化された堅牢な学習能力に基づいて,ノイズロバスト学習ラベル(NRoLL)と呼ばれる半教師付き顔認識ソリューションを開発した。
少量のラベル付きデータから始まり、その結果、大量のラベル付きデータに対して高信頼のラベル付けを行い、さらなるトレーニングを促進する。
データがnrollによってラベル付けされるほど、データセット内のラベルに高い信頼性が与えられる。
提案手法の競合性を評価するため,ラベル付きmscelebの5分の1しか利用できず,残りをラベル付きデータとして使用することを条件としてnrollを実行する。
幅広いベンチマークにおいて,本手法は最先端手法と好適に比較できる。
関連論文リスト
- Training a Label-Noise-Resistant GNN with Reduced Complexity [19.032199712090485]
グラフニューラルネットワーク(GNN)は、グラフ上の半教師付きノード分類タスクに広く利用されている。
GNNの性能はラベルノイズに大きく影響され、誤ラベル付きノードの数が少なければ、モデルトレーニングを著しく間違える可能性がある。
本稿では,ラベルノイズに対する堅牢なGNN学習のための低次複雑化手法であるラベルアンサンブルグラフニューラルネットワーク(LEGNN)を提案する。
論文 参考訳(メタデータ) (2024-11-17T09:52:20Z) - Soft Curriculum for Learning Conditional GANs with Noisy-Labeled and
Uncurated Unlabeled Data [70.25049762295193]
本稿では,トレーニング中にノイズラベル付きおよび未処理データを受け入れる条件付き画像生成フレームワークを提案する。
本稿では,ラベルのないデータに新たなラベルを割り当てながら,逆行訓練にインスタンスワイドを割り当てるソフトカリキュラム学習を提案する。
実験により,本手法は,定量および定性性能の両面において,既存の半教師付き・ラベル付きロバストな手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-17T08:31:59Z) - SoftMatch: Addressing the Quantity-Quality Trade-off in Semi-supervised
Learning [101.86916775218403]
本稿では, サンプル重み付けを統一した定式化により, 一般的な擬似ラベル法を再検討する。
トレーニング中の擬似ラベルの量と質を両立させることでトレードオフを克服するSoftMatchを提案する。
実験では、画像、テキスト、不均衡な分類など、さまざまなベンチマークで大幅に改善されている。
論文 参考訳(メタデータ) (2023-01-26T03:53:25Z) - Pseudo-Label Noise Suppression Techniques for Semi-Supervised Semantic
Segmentation [21.163070161951868]
半消費学習(SSL)は、教師なしデータをトレーニングに組み込むことで、大きなラベル付きデータセットの必要性を減らすことができる。
現在のSSLアプローチでは、初期教師付きトレーニングモデルを使用して、擬似ラベルと呼ばれる未ラベル画像の予測を生成する。
擬似ラベルノイズと誤りを3つのメカニズムで制御する。
論文 参考訳(メタデータ) (2022-10-19T09:46:27Z) - Informative Pseudo-Labeling for Graph Neural Networks with Few Labels [12.83841767562179]
グラフニューラルネットワーク(GNN)は、グラフ上の半教師付きノード分類のための最先端の結果を得た。
非常に少数のレーベルでGNNを効果的に学習する方法の課題は、まだ解明されていない。
我々は、非常に少ないラベルを持つGNNの学習を容易にするために、InfoGNNと呼ばれる新しい情報的擬似ラベルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-20T01:49:30Z) - S3: Supervised Self-supervised Learning under Label Noise [53.02249460567745]
本稿では,ラベルノイズの存在下での分類の問題に対処する。
提案手法の核心は,サンプルのアノテートラベルと特徴空間内のその近傍のラベルの分布との整合性に依存するサンプル選択機構である。
提案手法は,CIFARCIFAR100とWebVisionやANIMAL-10Nなどの実環境ノイズデータセットの両方で,従来の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2021-11-22T15:49:20Z) - An Ensemble Noise-Robust K-fold Cross-Validation Selection Method for
Noisy Labels [0.9699640804685629]
大規模なデータセットには、ディープニューラルネットワーク(DNN)によって記憶されるような、ラベルのずれたサンプルが含まれている傾向があります。
本稿では, ノイズデータからクリーンなサンプルを効果的に選択するために, アンサンブルノイズ・ロバスト K-fold Cross-Validation Selection (E-NKCVS) を提案する。
我々は,ラベルが手動で異なる雑音比で破損した様々な画像・テキスト分類タスクに対するアプローチを評価する。
論文 参考訳(メタデータ) (2021-07-06T02:14:52Z) - A Novel Perspective for Positive-Unlabeled Learning via Noisy Labels [49.990938653249415]
本研究では,初期疑似ラベルを雑音ラベルデータとして用いる非ラベルデータに割り当て,雑音ラベルデータを用いて深層ニューラルネットワークを訓練する手法を提案する。
実験の結果,提案手法は,いくつかのベンチマークデータセットにおいて,最先端の手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2021-03-08T11:46:02Z) - In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning [53.1047775185362]
Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T23:29:57Z) - Self-semi-supervised Learning to Learn from NoisyLabeled Data [3.18577806302116]
高品質なラベル付きデータを得るには費用がかかるため、ノイズの多いラベルに頑健なトレーニングモデルの活発な研究領域につながる。
本研究では,クリーンでノイズの多いラベルをより正確に区別する手法を考案し,ノイズの多いラベル付きデータを学習するために自己半教師付き学習の知恵を借りた。
論文 参考訳(メタデータ) (2020-11-03T02:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。