論文の概要: Iterative Label Improvement: Robust Training by Confidence Based
Filtering and Dataset Partitioning
- arxiv url: http://arxiv.org/abs/2002.02705v3
- Date: Fri, 17 Jul 2020 10:13:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 03:23:20.267254
- Title: Iterative Label Improvement: Robust Training by Confidence Based
Filtering and Dataset Partitioning
- Title(参考訳): 反復ラベル改善:信頼に基づくフィルタリングとデータセット分割によるロバストトレーニング
- Authors: Christian Haase-Sch\"utz, Rainer Stal, Heinz Hertlein and Bernhard
Sick
- Abstract要約: 最先端、高容量のディープニューラルネットワークは、大量のラベル付きトレーニングデータを必要とする。
また、このデータにエラーをラベル付けする可能性も高い。
本稿では,安価な非競合データを使用することのできる新しいメタトレーニング・ラベリング手法を提案する。
- 参考スコア(独自算出の注目度): 5.1293809610257775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State-of-the-art, high capacity deep neural networks not only require large
amounts of labelled training data, they are also highly susceptible to label
errors in this data, typically resulting in large efforts and costs and
therefore limiting the applicability of deep learning. To alleviate this issue,
we propose a novel meta training and labelling scheme that is able to use
inexpensive unlabelled data by taking advantage of the generalization power of
deep neural networks. We show experimentally that by solely relying on one
network architecture and our proposed scheme of iterative training and
prediction steps, both label quality and resulting model accuracy can be
improved significantly. Our method achieves state-of-the-art results, while
being architecture agnostic and therefore broadly applicable. Compared to other
methods dealing with erroneous labels, our approach does neither require
another network to be trained, nor does it necessarily need an additional,
highly accurate reference label set. Instead of removing samples from a
labelled set, our technique uses additional sensor data without the need for
manual labelling. Furthermore, our approach can be used for semi-supervised
learning.
- Abstract(参考訳): 最先端の、高容量のディープニューラルネットワークは、大量のラベル付きトレーニングデータを必要とするだけでなく、このデータにラベルエラーの影響を受けやすいため、一般的に大きな労力とコストがかかり、ディープラーニングの適用性が制限される。
この問題を軽減するために,深層ニューラルネットワークの一般化力を生かして,安価な非競合データを利用することのできる,新しいメタトレーニングとラベリング手法を提案する。
1つのネットワークアーキテクチャと提案する反復トレーニングと予測ステップのみに依存することで,ラベル品質とモデルの精度が大幅に向上することを示す。
提案手法はアーキテクチャ非依存であり,従って広く適用可能である。
間違ったラベルを扱う他の方法と比較して、我々のアプローチは別のネットワークをトレーニングする必要はなく、必ずしも追加の高精度な参照ラベルセットを必要としない。
ラベル付き集合からサンプルを除去する代わりに、手動ラベリングを必要とせずに追加のセンサーデータを使用する。
さらに,本手法は半教師付き学習にも応用できる。
関連論文リスト
- Reducing Labeling Costs in Sentiment Analysis via Semi-Supervised Learning [0.0]
本研究では,半教師付き学習におけるラベル伝搬について検討する。
テキスト分類のための多様体仮定に基づいて,トランスダクティブなラベル伝搬法を用いる。
ネットワーク埋め込みから隣接グラフ内のコサイン近接に基づくラベルを拡張することにより、ラベルなしデータを教師付き学習に組み合わせる。
論文 参考訳(メタデータ) (2024-10-15T07:25:33Z) - Boosting Semi-Supervised Learning by bridging high and low-confidence
predictions [4.18804572788063]
Pseudo-labelingは半教師あり学習(SSL)において重要な技術である
ReFixMatchと呼ばれる新しい手法を提案し、これはトレーニング中にラベルなしのデータをすべて活用することを目的としている。
論文 参考訳(メタデータ) (2023-08-15T00:27:18Z) - Weighted Distillation with Unlabeled Examples [15.825078347452024]
ラベルなし例による蒸留は、ラベル付きデータの量を制限する設定において、ディープニューラルネットワークをトレーニングするための一般的で強力な方法である。
本稿では, 蒸留訓練のパラダイムに合わせて, 学生の損失関数の再重み付けに基づいて, この問題に対処するための原則的アプローチを提案する。
論文 参考訳(メタデータ) (2022-10-13T04:08:56Z) - Semi-supervised Learning using Robust Loss [0.0]
手動ラベル付きデータと追加ラベル付きデータの両方を活用するための半教師付きトレーニング戦略を提案する。
既存の手法とは対照的に、自動ラベル付きデータに対してロバストな損失を適用し、不均一なデータ品質を補う。
提案手法は,画像分類におけるラベルの不均一な品質を補正することにより,モデル性能の向上を図っている。
論文 参考訳(メタデータ) (2022-03-03T05:34:32Z) - Debiased Pseudo Labeling in Self-Training [77.83549261035277]
ディープニューラルネットワークは、大規模ラベル付きデータセットの助けを借りて、幅広いタスクで顕著なパフォーマンスを達成する。
ラベル付きデータの要求を軽減するため、ラベル付けされていないデータに擬似ラベルを付けることにより、学術と産業の両方で自己学習が広く使われている。
疑似ラベルの生成と利用を2つの独立した頭文字で分離するデバイアスドを提案する。
論文 参考訳(メタデータ) (2022-02-15T02:14:33Z) - Towards Reducing Labeling Cost in Deep Object Detection [61.010693873330446]
本稿では,検知器の不確実性と頑健性の両方を考慮した,アクティブラーニングのための統一的なフレームワークを提案する。
提案手法は, 確率分布のドリフトを抑えながら, 極めて確実な予測を擬似ラベル化することができる。
論文 参考訳(メタデータ) (2021-06-22T16:53:09Z) - Self-Supervised Noisy Label Learning for Source-Free Unsupervised Domain
Adaptation [87.60688582088194]
新規な自己監督雑音ラベル学習法を提案する。
本手法は最新の結果を容易に達成でき、他の手法を非常に大きなマージンで超えることができる。
論文 参考訳(メタデータ) (2021-02-23T10:51:45Z) - Mixed-Privacy Forgetting in Deep Networks [114.3840147070712]
大規模画像分類タスクにおいてトレーニングされたネットワークの重みからトレーニングサンプルのサブセットの影響を除去できることを示す。
そこで本研究では,混合プライバシー設定における「忘れ」という新しい概念を導入する。
提案手法は,モデル精度のトレードオフを伴わずに忘れることができることを示す。
論文 参考訳(メタデータ) (2020-12-24T19:34:56Z) - PseudoSeg: Designing Pseudo Labels for Semantic Segmentation [78.35515004654553]
ラベルなしまたは弱いラベル付きデータを用いたトレーニングのための構造化された擬似ラベルを生成するための擬似ラベルの再設計を提案する。
提案手法の有効性を,低データと高データの両方において示す。
論文 参考訳(メタデータ) (2020-10-19T17:59:30Z) - COLAM: Co-Learning of Deep Neural Networks and Soft Labels via
Alternating Minimization [60.07531696857743]
2つの目的の交互最小化によるDNNとソフトラベルの共学習
本稿では,DNNとソフトラベルを相互に学習するCOLAMフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-26T17:50:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。