論文の概要: Self-semi-supervised Learning to Learn from NoisyLabeled Data
- arxiv url: http://arxiv.org/abs/2011.01429v1
- Date: Tue, 3 Nov 2020 02:31:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 04:17:21.502982
- Title: Self-semi-supervised Learning to Learn from NoisyLabeled Data
- Title(参考訳): ノイズラベルデータから学習する自己半教師型学習
- Authors: Jiacheng Wang, Yue Ma, and Shuang Gao
- Abstract要約: 高品質なラベル付きデータを得るには費用がかかるため、ノイズの多いラベルに頑健なトレーニングモデルの活発な研究領域につながる。
本研究では,クリーンでノイズの多いラベルをより正確に区別する手法を考案し,ノイズの多いラベル付きデータを学習するために自己半教師付き学習の知恵を借りた。
- 参考スコア(独自算出の注目度): 3.18577806302116
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The remarkable success of today's deep neural networks highly depends on a
massive number of correctly labeled data. However, it is rather costly to
obtain high-quality human-labeled data, leading to the active research area of
training models robust to noisy labels. To achieve this goal, on the one hand,
many papers have been dedicated to differentiating noisy labels from clean ones
to increase the generalization of DNN. On the other hand, the increasingly
prevalent methods of self-semi-supervised learning have been proven to benefit
the tasks when labels are incomplete. By 'semi' we regard the wrongly labeled
data detected as un-labeled data; by 'self' we choose a self-supervised
technique to conduct semi-supervised learning. In this project, we designed
methods to more accurately differentiate clean and noisy labels and borrowed
the wisdom of self-semi-supervised learning to train noisy labeled data.
- Abstract(参考訳): 今日のディープニューラルネットワークの驚くべき成功は、大量の正しくラベル付けされたデータに依存する。
しかし、高品質な人間ラベルデータを得るにはコストがかかるため、ノイズの多いラベルに頑健なトレーニングモデルの活発な研究領域に繋がる。
この目的を達成するために、ノイズラベルとクリーンラベルを区別してdnnの一般化を促進するために多くの論文が発行されている。
一方, 自己半教師付き学習は, ラベルが不完全である場合の作業に有効であることが証明されている。
semi」はラベルなしデータとして検出された誤ったラベル付きデータを考慮し、「自己」は半教師付き学習を行うための自己教師付き手法を選択する。
本研究では,クリーンラベルとノイズラベルをより正確に区別する手法を考案し,ノイズラベルデータを学習するための自己教師あり学習の知識を借用した。
関連論文リスト
- Reducing Labeling Costs in Sentiment Analysis via Semi-Supervised Learning [0.0]
本研究では,半教師付き学習におけるラベル伝搬について検討する。
テキスト分類のための多様体仮定に基づいて,トランスダクティブなラベル伝搬法を用いる。
ネットワーク埋め込みから隣接グラフ内のコサイン近接に基づくラベルを拡張することにより、ラベルなしデータを教師付き学習に組み合わせる。
論文 参考訳(メタデータ) (2024-10-15T07:25:33Z) - Incremental Self-training for Semi-supervised Learning [56.57057576885672]
ISTは単純だが有効であり、既存の自己学習に基づく半教師あり学習手法に適合する。
提案したISTを5つのデータセットと2種類のバックボーンで検証し,認識精度と学習速度を効果的に向上させる。
論文 参考訳(メタデータ) (2024-04-14T05:02:00Z) - Soft Curriculum for Learning Conditional GANs with Noisy-Labeled and
Uncurated Unlabeled Data [70.25049762295193]
本稿では,トレーニング中にノイズラベル付きおよび未処理データを受け入れる条件付き画像生成フレームワークを提案する。
本稿では,ラベルのないデータに新たなラベルを割り当てながら,逆行訓練にインスタンスワイドを割り当てるソフトカリキュラム学習を提案する。
実験により,本手法は,定量および定性性能の両面において,既存の半教師付き・ラベル付きロバストな手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-17T08:31:59Z) - MILD: Modeling the Instance Learning Dynamics for Learning with Noisy
Labels [19.650299232829546]
クリーンなデータを特定するために,Weibull混合モデルに基づく反復的選択手法を提案する。
特に、誤分類と暗記の間の遷移時間を通じて、各インスタンスの暗記の難しさを測定し、暗記する。
我々の戦略は既存の雑音ラベル学習方法より優れている。
論文 参考訳(メタデータ) (2023-06-20T14:26:53Z) - Doubly Robust Self-Training [46.168395767948965]
本稿では,新しい半教師付きアルゴリズムである二重頑健な自己学習を導入する。
通常の自己学習ベースラインよりも2倍頑健な損失の優位性を実証する。
論文 参考訳(メタデータ) (2023-06-01T00:57:16Z) - Towards Harnessing Feature Embedding for Robust Learning with Noisy
Labels [44.133307197696446]
ディープニューラルネットワーク(DNN)の記憶効果は,近年のラベルノイズ学習法において重要な役割を担っている。
ラベルノイズを用いたディープラーニングのための新しい特徴埋め込み方式, LabEl Noise Dilution (LEND) を提案する。
論文 参考訳(メタデータ) (2022-06-27T02:45:09Z) - Debiased Pseudo Labeling in Self-Training [77.83549261035277]
ディープニューラルネットワークは、大規模ラベル付きデータセットの助けを借りて、幅広いタスクで顕著なパフォーマンスを達成する。
ラベル付きデータの要求を軽減するため、ラベル付けされていないデータに擬似ラベルを付けることにより、学術と産業の両方で自己学習が広く使われている。
疑似ラベルの生成と利用を2つの独立した頭文字で分離するデバイアスドを提案する。
論文 参考訳(メタデータ) (2022-02-15T02:14:33Z) - Robust Long-Tailed Learning under Label Noise [50.00837134041317]
本研究では,長期ラベル分布におけるラベルノイズ問題について検討する。
本稿では,長期学習のための雑音検出を実現する頑健なフレームワークAlgoを提案する。
我々のフレームワークは、半教師付き学習アルゴリズムを自然に活用して一般化をさらに改善することができる。
論文 参考訳(メタデータ) (2021-08-26T03:45:00Z) - Boosting Semi-Supervised Face Recognition with Noise Robustness [54.342992887966616]
本稿では,自動ラベルによるラベル雑音に対して頑健な半教師付き顔認識に対する効果的な解法を提案する。
そこで我々は,gnが強化するロバストな学習能力に基づく,ノイズロバスト学習ラベリング(nroll)という,半教師付き顔認識ソリューションを開発した。
論文 参考訳(メタデータ) (2021-05-10T14:43:11Z) - Self-Tuning for Data-Efficient Deep Learning [75.34320911480008]
セルフチューニングは、データ効率のよいディープラーニングを可能にする新しいアプローチである。
ラベル付きおよびラベルなしデータの探索と事前訓練されたモデルの転送を統一する。
SSLとTLの5つのタスクをシャープなマージンで上回ります。
論文 参考訳(メタデータ) (2021-02-25T14:56:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。