論文の概要: Provably End-to-end Label-Noise Learning without Anchor Points
- arxiv url: http://arxiv.org/abs/2102.02400v1
- Date: Thu, 4 Feb 2021 03:59:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-05 16:20:38.551426
- Title: Provably End-to-end Label-Noise Learning without Anchor Points
- Title(参考訳): アンカーポイントのないエンドツーエンドのラベル・ノイズ学習
- Authors: Xuefeng Li, Tongliang Liu, Bo Han, Gang Niu, Masashi Sugiyama
- Abstract要約: 本稿では,アンカーポイントを使わずにラベルノイズ学習を実現するためのエンドツーエンドフレームワークを提案する。
提案フレームワークでは,クリーンなクラス後確率が十分に分散している場合,遷移行列を同定できる。
- 参考スコア(独自算出の注目度): 118.97592870124937
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In label-noise learning, the transition matrix plays a key role in building
statistically consistent classifiers. Existing consistent estimators for the
transition matrix have been developed by exploiting anchor points. However, the
anchor-point assumption is not always satisfied in real scenarios. In this
paper, we propose an end-to-end framework for solving label-noise learning
without anchor points, in which we simultaneously minimize two objectives: the
discrepancy between the distribution learned by the neural network and the
noisy class-posterior distribution, and the volume of the simplex formed by the
columns of the transition matrix. Our proposed framework can identify the
transition matrix if the clean class-posterior probabilities are sufficiently
scattered. This is by far the mildest assumption under which the transition
matrix is provably identifiable and the learned classifier is statistically
consistent. Experimental results on benchmark datasets demonstrate the
effectiveness and robustness of the proposed method.
- Abstract(参考訳): ラベル・ノイズ学習において、遷移行列は統計的に一貫した分類器を構築する上で重要な役割を果たす。
遷移行列に対する既存の整合性推定器は、アンカー点を利用して開発された。
しかし、アンカーポイントの仮定は実際のシナリオでは必ずしも満たされない。
本稿では,ニューラルネットワークが学習した分布と雑音のクラス後分布との差分と,遷移行列の列によって形成される単純さの体積の2つの目的を同時に最小化する,アンカーポイントのないラベル-ノイズ学習のエンドツーエンドフレームワークを提案する。
提案フレームワークでは,クリーンなクラス後確率が十分に分散している場合,遷移行列を同定できる。
これは、遷移行列が証明可能であり、学習された分類器が統計的に一貫した最も穏やかな仮定である。
ベンチマークデータセットの実験結果は,提案手法の有効性と堅牢性を示す。
関連論文リスト
- Dirichlet-based Per-Sample Weighting by Transition Matrix for Noisy
Label Learning [18.688802981093644]
本稿では,再サンプリングに基づく新しい利用法 RENT を提案する。
Rentは、さまざまなベンチマークデータセット上で、再重み付けを含む既存の遷移行列利用法を一貫して上回る。
論文 参考訳(メタデータ) (2024-03-05T06:20:49Z) - Multi-Label Noise Transition Matrix Estimation with Label Correlations:
Theory and Algorithm [73.94839250910977]
ノイズの多いマルチラベル学習は、大規模な正確なラベルの収集によって生じる課題により、注目を集めている。
遷移行列の導入は、マルチラベルノイズをモデル化し、統計的に一貫したアルゴリズムの開発に役立つ。
そこで本稿では, アンカーポイントを必要とせずに, ラベル相関を利用した新しい推定器を提案する。
論文 参考訳(メタデータ) (2023-09-22T08:35:38Z) - Learning from Multiple Annotators by Incorporating Instance Features [15.643325526074804]
複数のアノテーションから学ぶことは、トレーニングインスタンスから高品質な分類器を誘導することを目的としている。
既存のほとんどのメソッドでは、ラベルがインスタンスの特徴に依存しないアノテータのクラスレベルの混乱行列が採用されている。
混乱行列に基づくアノテータの性能に対するインスタンス特徴の影響を取り入れたノイズ遷移行列を提案する。
論文 参考訳(メタデータ) (2021-06-29T08:07:24Z) - Learning Noise Transition Matrix from Only Noisy Labels via Total
Variation Regularization [88.91872713134342]
本稿では,雑音遷移行列を推定し,同時に分類器を学習する理論的基礎付け手法を提案する。
提案手法の有効性を,ベンチマークおよび実世界のデータセットを用いた実験により示す。
論文 参考訳(メタデータ) (2021-02-04T05:09:18Z) - Dual T: Reducing Estimation Error for Transition Matrix in Label-noise
Learning [157.2709657207203]
遷移行列を推定する既存の方法は、ノイズのあるクラス後部を推定することに大きく依存している。
雑音のクラス後部を直接推定するのを避けるために中間クラスを導入する。
この中間クラスにより、元の遷移行列は2つの容易に推定できる遷移行列の積に分解できる。
論文 参考訳(メタデータ) (2020-06-14T05:48:20Z) - Meta Transition Adaptation for Robust Deep Learning with Noisy Labels [61.8970957519509]
本研究では,新しいメタ遷移学習戦略を提案する。
具体的には、クリーンなラベル付きメタデータの小さなセットのサウンドガイダンスにより、ノイズ遷移行列と分類器パラメータを相互に改善することができる。
本手法は, 従来技術よりも頑健な性能で, 遷移行列をより正確に抽出することができる。
論文 参考訳(メタデータ) (2020-06-10T07:27:25Z) - Matrix Smoothing: A Regularization for DNN with Transition Matrix under
Noisy Labels [54.585681272543056]
ノイズラベルの存在下でのディープニューラルネットワーク(DNN)のトレーニングは重要かつ困難な課題である。
最近の確率論的手法はDNNへの遷移行列を直接適用し、DNNの過剰適合に対する感受性を無視する。
そこで本稿では,DNN更新にスムーズな遷移行列を用いてオーバーフィッティングを制限する手法を提案する。
論文 参考訳(メタデータ) (2020-03-26T13:49:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。