論文の概要: KNN-enhanced Deep Learning Against Noisy Labels
- arxiv url: http://arxiv.org/abs/2012.04224v1
- Date: Tue, 8 Dec 2020 05:21:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-17 09:46:35.560657
- Title: KNN-enhanced Deep Learning Against Noisy Labels
- Title(参考訳): 雑音ラベルに対するKNN強化深層学習
- Authors: Shuyu Kong and You Li and Jia Wang and Amin Rezaei and Hai Zhou
- Abstract要約: Deep Neural Networks(DNN)の監視学習は、データ空腹である。
本研究では,ラベルクリーンアップに深いKNNを適用することを提案する。
ニューラルネットワークを反復的にトレーニングし、ラベルを更新し、ラベル回復率の向上と分類性能の向上を同時に進める。
- 参考スコア(独自算出の注目度): 4.765948508271371
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Supervised learning on Deep Neural Networks (DNNs) is data hungry. Optimizing
performance of DNN in the presence of noisy labels has become of paramount
importance since collecting a large dataset will usually bring in noisy labels.
Inspired by the robustness of K-Nearest Neighbors (KNN) against data noise, in
this work, we propose to apply deep KNN for label cleanup. Our approach
leverages DNNs for feature extraction and KNN for ground-truth label inference.
We iteratively train the neural network and update labels to simultaneously
proceed towards higher label recovery rate and better classification
performance. Experiment results show that under the same setting, our approach
outperforms existing label correction methods and achieves better accuracy on
multiple datasets, e.g.,76.78% on Clothing1M dataset.
- Abstract(参考訳): Deep Neural Networks(DNN)の監視学習は、データ空腹である。
ノイズラベルの存在下でのDNNのパフォーマンスの最適化は、大きなデータセットの収集が通常ノイズラベルをもたらすため、最も重要になっている。
データノイズに対するK-Nearest Neighbors (KNN) のロバスト性に着想を得て, ラベルのクリーンアップに深いKNNを適用することを提案する。
提案手法は,DNNを特徴抽出に利用し,KNNを地味ラベル推論に活用する。
ニューラルネットワークを反復的にトレーニングし、ラベルを更新し、ラベル回復率の向上と分類性能の向上を同時に進める。
実験の結果,本手法は既存のラベル補正法を上回っており,wearing1mデータセットの76.78%など,複数のデータセットにおいて精度が向上していることがわかった。
関連論文リスト
- Training a Label-Noise-Resistant GNN with Reduced Complexity [19.032199712090485]
グラフニューラルネットワーク(GNN)は、グラフ上の半教師付きノード分類タスクに広く利用されている。
GNNの性能はラベルノイズに大きく影響され、誤ラベル付きノードの数が少なければ、モデルトレーニングを著しく間違える可能性がある。
本稿では,ラベルノイズに対する堅牢なGNN学習のための低次複雑化手法であるラベルアンサンブルグラフニューラルネットワーク(LEGNN)を提案する。
論文 参考訳(メタデータ) (2024-11-17T09:52:20Z) - KD-FixMatch: Knowledge Distillation Siamese Neural Networks [13.678635878305247]
KD-FixMatchは知識蒸留を取り入れてFixMatchの限界に対処する新しいSSLアルゴリズムである。
このアルゴリズムは,SNNの逐次訓練と同時訓練を組み合わせて,性能の向上と性能劣化の低減を図る。
以上の結果から,KD-FixMatchはFixMatchよりも訓練開始点が良く,モデル性能が向上していることがわかった。
論文 参考訳(メタデータ) (2023-09-11T21:11:48Z) - Robust Training of Graph Neural Networks via Noise Governance [27.767913371777247]
グラフニューラルネットワーク(GNN)は、半教師付き学習のモデルとして広く使われている。
本稿では,グラフノード上のラベルがうるさいだけでなく,難易度も低い重要なシナリオについて考察する。
本稿では,ラベルノイズを明示的に制御する学習により,ロバスト性を向上する新しいRTGNNフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-12T09:25:32Z) - Understanding and Improving Early Stopping for Learning with Noisy
Labels [63.0730063791198]
ディープニューラルネットワーク(DNN)の記憶効果は、多くの最先端のラベルノイズ学習法において重要な役割を担っている。
現在の手法は一般的にDNN全体を考慮して早期停止点を決定する。
我々は、DNNを異なる部分に分割し、この問題に対処するよう徐々に訓練することを提案する。
論文 参考訳(メタデータ) (2021-06-30T07:18:00Z) - NRGNN: Learning a Label Noise-Resistant Graph Neural Network on Sparsely
and Noisily Labeled Graphs [20.470934944907608]
グラフニューラルネットワーク(GNN)は,ノード分類などのグラフ上の半教師付き学習タスクに対して,有望な結果を得た。
多くの実世界のグラフはスパースでノイズの多いラベルが付けられており、GNNの性能を著しく低下させる可能性がある。
半教師付きノード分類のためのラベルノイズ耐性GNNを提案する。
論文 参考訳(メタデータ) (2021-06-08T22:12:44Z) - Adaptive Nearest Neighbor Machine Translation [60.97183408140499]
kNN-MTは、事前訓練されたニューラルネットワーク翻訳とトークンレベルのk-nearest-neighbor検索を組み合わせる。
従来のkNNアルゴリズムは、ターゲットトークンごとに同じ数の近傍を検索する。
ターゲットトークン毎のk個数を動的に決定する適応的kNN-MTを提案する。
論文 参考訳(メタデータ) (2021-05-27T09:27:42Z) - Boosting Semi-Supervised Face Recognition with Noise Robustness [54.342992887966616]
本稿では,自動ラベルによるラベル雑音に対して頑健な半教師付き顔認識に対する効果的な解法を提案する。
そこで我々は,gnが強化するロバストな学習能力に基づく,ノイズロバスト学習ラベリング(nroll)という,半教師付き顔認識ソリューションを開発した。
論文 参考訳(メタデータ) (2021-05-10T14:43:11Z) - Delving Deep into Label Smoothing [112.24527926373084]
ディープニューラルネットワーク(DNN)の効果的な正規化ツールとしてのラベル平滑化
対象カテゴリのモデル予測の統計に基づいてソフトラベルを生成するオンラインラベル平滑化(OLS)戦略を提案する。
論文 参考訳(メタデータ) (2020-11-25T08:03:11Z) - Temporal Calibrated Regularization for Robust Noisy Label Learning [60.90967240168525]
ディープニューラルネットワーク(DNN)は、大規模な注釈付きデータセットの助けを借りて、多くのタスクで大きな成功を収めている。
しかし、大規模なデータのラベル付けは非常にコストがかかりエラーが発生しやすいため、アノテーションの品質を保証することは困難である。
本稿では,従来のラベルと予測を併用したTCR(Temporal Calibrated Regularization)を提案する。
論文 参考訳(メタデータ) (2020-07-01T04:48:49Z) - COLAM: Co-Learning of Deep Neural Networks and Soft Labels via
Alternating Minimization [60.07531696857743]
2つの目的の交互最小化によるDNNとソフトラベルの共学習
本稿では,DNNとソフトラベルを相互に学習するCOLAMフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-26T17:50:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。