論文の概要: Two-Phase Learning for Overcoming Noisy Labels
- arxiv url: http://arxiv.org/abs/2012.04337v1
- Date: Tue, 8 Dec 2020 10:25:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 17:35:34.302795
- Title: Two-Phase Learning for Overcoming Noisy Labels
- Title(参考訳): 雑音ラベル克服のための二相学習
- Authors: Hwanjun Song, Minseok Kim, Dongmin Park, Jae-Gil Lee
- Abstract要約: 本稿では,ネットワークが偽ラベルのサンプルを記憶し始めた時点で,学習フェーズを自動移行する2段階学習手法を提案する。
MorPHは、テストエラーとトレーニング時間の点で5つの最先端の方法を大幅に上回ります。
- 参考スコア(独自算出の注目度): 16.390094129357774
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To counter the challenge associated with noise labels, the learning strategy
of deep neural networks must be differentiated over the learning period during
the training process. Therefore, we propose a novel two-phase learning method,
MORPH, which automatically transitions its learning phase at the point when the
network begins to rapidly memorize false-labeled samples. In the first phase,
MORPH starts to update the network for all the training samples before the
transition point. Without any supervision, the learning phase is converted to
the next phase on the basis of the estimated best transition point.
Subsequently, MORPH resumes the training of the network only for a maximal safe
set, which maintains the collection of almost certainly true-labeled samples at
each epoch. Owing to its two-phase learning, MORPH realizes noise-free training
for any type of label noise for practical use. Moreover, extensive experiments
using six datasets verify that MORPH significantly outperforms five
state-of-the art methods in terms of test error and training time.
- Abstract(参考訳): ノイズラベルに関連する課題に対処するためには、深層ニューラルネットワークの学習戦略をトレーニングプロセス中の学習期間を通じて区別する必要がある。
そこで本研究では,ネットワークが偽ラベルサンプルを高速に記憶し始めた時点で,学習フェーズを自動移行する2相学習手法であるMORPHを提案する。
第1フェーズでは、morphは遷移点の前にすべてのトレーニングサンプルのネットワークを更新し始める。
教師がいなければ、学習フェーズは、推定された最良の遷移点に基づいて次のフェーズに変換される。
その後、MORPHは最大安全なセットのためにのみネットワークのトレーニングを再開し、各エポックにおけるほぼ確実に真のラベル付きサンプルの収集を維持する。
2相学習のため、morphはどんな種類のラベルノイズに対してもノイズフリーなトレーニングを実現している。
さらに、6つのデータセットを用いた広範な実験により、MORPHがテストエラーとトレーニング時間で5つの最先端手法を著しく上回っていることが確認された。
関連論文リスト
- On Emergence of Clean-Priority Learning in Early Stopped Neural Networks [18.725557157004214]
トレーニングデータセットにランダムラベルノイズが付加されると、ラベルなしテストデータセット上のニューラルネットワークの予測誤差が悪化する。
この振る舞いは、ニューラルネットワークがまずクリーンデータのパターンを学習し、後にトレーニングにノイズを適合させた結果であると考えられている。
クリーン・プライオリティ学習が進むにつれて、ノイズの多いサンプルよりもクリーンなサンプルの勾配が支配的になることを示す。
論文 参考訳(メタデータ) (2023-06-05T01:45:22Z) - PADDLES: Phase-Amplitude Spectrum Disentangled Early Stopping for
Learning with Noisy Labels [49.43183579415899]
畳み込みニューラルネットワーク(CNN)は、学習パターンの優位性を示しているが、ラベルノイズに敏感であり、トレーニング中にノイズラベルをオーバーフィットさせる可能性がある。
早期停止戦略は、初期のトレーニングフェーズにおけるCNNの更新を回避し、ノイズラベルの存在下で広く採用されている。
提案手法は, 実世界のラベル・ノイズ・データセットの合成に有効であることを示す。
論文 参考訳(メタデータ) (2022-12-07T05:03:13Z) - On the Soft-Subnetwork for Few-shot Class Incremental Learning [67.0373924836107]
本稿では,emphSoft-SubNetworks (SoftNet) と呼ばれる数発のクラスインクリメンタルラーニング(FSCIL)手法を提案する。
私たちの目的はセッションの連続を漸進的に学習することであり、各セッションは、以前に学習したセッションの知識を保持しながら、クラス毎にいくつかのトレーニングインスタンスのみを含む。
我々は、ベンチマークデータセットよりも最先端のベースラインのパフォーマンスを超越して、SoftNetが数発のインクリメンタル学習問題に効果的に取り組むことを示す、総合的な実証検証を提供する。
論文 参考訳(メタデータ) (2022-09-15T04:54:02Z) - Intersection of Parallels as an Early Stopping Criterion [64.8387564654474]
そこで本研究では,検証セットを必要とせずに,トレーニングイテレーションの早期停止点を見つける手法を提案する。
幅広い学習率において,コサイン距離基準 (CDC) と呼ばれる手法は,比較したすべての手法よりも平均的な一般化に寄与する。
論文 参考訳(メタデータ) (2022-08-19T19:42:41Z) - A Theoretical Analysis of Learning with Noisily Labeled Data [62.946840431501855]
最初に、最初のエポックトレーニングで、クリーンラベルの例が先に学習されることを示しました。
次に、クリーンデータステージから学習した後、継続的なトレーニングモデルがテストエラーのさらなる改善を達成できることを示します。
論文 参考訳(メタデータ) (2021-04-08T23:40:02Z) - Phases of learning dynamics in artificial neural networks: with or
without mislabeled data [3.3576886095389296]
ニューラルネットワークにおける学習を駆動する勾配降下のダイナミクスについて研究する。
ラベルを間違えたデータがないと、SGD学習のダイナミクスは高速な学習段階から遅い探索段階へと移行する。
2つのデータセットの個々のサンプル損失は、フェーズIIで最も分離されている。
論文 参考訳(メタデータ) (2021-01-16T19:44:27Z) - Noisy Concurrent Training for Efficient Learning under Label Noise [13.041607703862724]
ディープニューラルネットワーク(DNN)はラベルノイズの下で効果的に学習することができず、その性能に影響を与えるランダムなラベルを記憶することが示されている。
我々は,単独で学習すること,ワンホット符号化ラベルを唯一の監督源として使用すること,および標準訓練手順の主な欠点として記憶を阻害するための正規化の欠如を考察する。
協調学習を活用して2つのモデル間のコンセンサスを新たな監督源として活用するノイズコンカレントトレーニング(NCT)を提案する。
論文 参考訳(メタデータ) (2020-09-17T14:22:17Z) - Early-Learning Regularization Prevents Memorization of Noisy Labels [29.04549895470588]
本稿では,ノイズの多いアノテーションの存在下で,ディープラーニングによる分類を行うための新しいフレームワークを提案する。
深層ニューラルネットワークは、"早期学習"フェーズにおいて、トレーニングデータをクリーンなラベルに適合させることが観察されている。
我々は、これらの目標に向けてモデルを操る正規化用語を設計し、偽ラベルの記憶を暗黙的に防止する。
論文 参考訳(メタデータ) (2020-06-30T23:46:33Z) - MetricUNet: Synergistic Image- and Voxel-Level Learning for Precise CT
Prostate Segmentation via Online Sampling [66.01558025094333]
本稿では,前立腺領域を高速に局在させる第1段階と,前立腺領域を正確に区分する第2段階の2段階のフレームワークを提案する。
マルチタスクネットワークにおけるボクセルワイドサンプリングによる新しいオンラインメトリック学習モジュールを提案する。
本手法は,従来のクロスエントロピー学習法やDice損失学習法と比較して,より代表的なボクセルレベルの特徴を効果的に学習することができる。
論文 参考訳(メタデータ) (2020-05-15T10:37:02Z) - DivideMix: Learning with Noisy Labels as Semi-supervised Learning [111.03364864022261]
ノイズラベルを学習するためのフレームワークであるDivideMixを提案する。
複数のベンチマークデータセットの実験は、最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2020-02-18T06:20:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。