論文の概要: MetaLabelNet: Learning to Generate Soft-Labels from Noisy-Labels
- arxiv url: http://arxiv.org/abs/2103.10869v1
- Date: Fri, 19 Mar 2021 15:47:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 14:41:39.301744
- Title: MetaLabelNet: Learning to Generate Soft-Labels from Noisy-Labels
- Title(参考訳): MetaLabelNet: ノイズラベルからソフトラベルを生成することを学ぶ
- Authors: G\"orkem Algan, Ilkay Ulusoy
- Abstract要約: 現実世界のデータセットはノイズの多いラベルを持ち、ディープニューラルネットワーク(dnn)のパフォーマンスに悪影響を及ぼす。
本稿では,ベース分類器を,メタ目的に応じて生成するソフトラベル上で学習するラベル雑音ロバスト学習アルゴリズムを提案する。
我々のアルゴリズムは、少量のクリーンデータをメタデータとして使用し、多くのケースで無益に取得できる。
- 参考スコア(独自算出の注目度): 0.20305676256390928
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Real-world datasets commonly have noisy labels, which negatively affects the
performance of deep neural networks (DNNs). In order to address this problem,
we propose a label noise robust learning algorithm, in which the base
classifier is trained on soft-labels that are produced according to a
meta-objective. In each iteration, before conventional training, the
meta-objective reshapes the loss function by changing soft-labels, so that
resulting gradient updates would lead to model parameters with minimum loss on
meta-data. Soft-labels are generated from extracted features of data instances,
and the mapping function is learned by a single layer perceptron (SLP) network,
which is called MetaLabelNet. Following, base classifier is trained by using
these generated soft-labels. These iterations are repeated for each batch of
training data. Our algorithm uses a small amount of clean data as meta-data,
which can be obtained effortlessly for many cases. We perform extensive
experiments on benchmark datasets with both synthetic and real-world noises.
Results show that our approach outperforms existing baselines.
- Abstract(参考訳): 実世界のデータセットは一般的にノイズの多いラベルを持ち、ディープニューラルネットワーク(DNN)の性能に悪影響を及ぼす。
この問題に対処するために,メタオブジェクトに応じて生成するソフトラベルに基づいてベース分類器を訓練するラベル雑音頑健な学習アルゴリズムを提案する。
各イテレーションでは、従来のトレーニングの前に、メタオブジェクトはソフトラベルを変更することで損失関数を満足させ、その結果、勾配の更新がメタデータに最小の損失をもたらす。
データインスタンスの抽出した特徴からソフトラベルが生成され、マッピング関数はMetaLabelNetと呼ばれる単一層パーセプトロン(SLP)ネットワークによって学習される。
次に、生成されたソフトラベルを用いてベース分類器を訓練する。
これらのイテレーションは、トレーニングデータのバッチ毎に繰り返される。
我々のアルゴリズムは、少量のクリーンデータをメタデータとして使用し、多くのケースで無益に取得できる。
我々は,合成音と実世界音の両方でベンチマークデータセットを広範囲に実験する。
その結果,既存のベースラインよりも優れたアプローチが得られた。
関連論文リスト
- Group Benefits Instances Selection for Data Purification [21.977432359384835]
ラベルノイズと戦う既存の方法は通常、合成データセット上で設計およびテストされる。
本稿では,合成および実世界の両方のデータセットに対するノイズラベル問題を緩和するGRIPという手法を提案する。
論文 参考訳(メタデータ) (2024-03-23T03:06:19Z) - ERASE: Error-Resilient Representation Learning on Graphs for Label Noise
Tolerance [53.73316938815873]
本稿では, ERASE (Error-Resilient representation learning on graphs for lAbel noiSe tolerancE) という手法を提案する。
ERASEは、プロトタイプの擬似ラベルとプロパゲーションされた識別ラベルを組み合わせて、表現をエラーレジリエンスで更新する。
提案手法は, 広い雑音レベルにおいて, 複数のベースラインをクリアマージンで上回り, 高いスケーラビリティを享受できる。
論文 参考訳(メタデータ) (2023-12-13T17:59:07Z) - BadLabel: A Robust Perspective on Evaluating and Enhancing Label-noise
Learning [113.8799653759137]
我々はBadLabelと呼ばれる新しいラベルノイズタイプを導入し、既存のLNLアルゴリズムの性能を大幅に劣化させることができる。
BadLabelは、標準分類に対するラベルフライング攻撃に基づいて開発されている。
そこで本稿では, 各エポックにおいてラベルを逆向きに摂動させ, クリーンかつノイズの多いラベルの損失値を再び識別可能にする頑健なLNL法を提案する。
論文 参考訳(メタデータ) (2023-05-28T06:26:23Z) - Learning advisor networks for noisy image classification [22.77447144331876]
本稿では,画像分類におけるノイズラベルの問題に対処するためのアドバイザネットワークの概念を紹介する。
私たちはメタラーニング戦略でそれをトレーニングし、メインモデルのトレーニングを通じて適応できるようにしました。
我々はCIFAR10とCIFAR100を合成雑音で試験し,実環境雑音を含むCrothing1Mを用いて最先端の結果を報告する。
論文 参考訳(メタデータ) (2022-11-08T11:44:08Z) - Scalable Penalized Regression for Noise Detection in Learning with Noisy
Labels [44.79124350922491]
理論的に保証された雑音ラベル検出フレームワークを用いて,雑音ラベルを用いた学習のためのノイズデータの検出と除去を行う。
具体的には,ネットワーク特徴量と1ホットラベルの線形関係をモデル化するためのペナル化回帰を設計する。
多数のカテゴリやトレーニングデータを含むデータセットに対して,フレームワークをスケーラブルにするために,トレーニングセット全体を小片に分割する分割アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-15T11:09:58Z) - L2B: Learning to Bootstrap Robust Models for Combating Label Noise [52.02335367411447]
本稿では,Learning to Bootstrap (L2B) という,シンプルで効果的な手法を提案する。
モデルは、誤った擬似ラベルの影響を受けずに、自身の予測を使ってブートストラップを行うことができる。
これは、実際の観測されたラベルと生成されたラベル間の重みを動的に調整し、メタラーニングを通じて異なるサンプル間の重みを動的に調整することで実現される。
論文 参考訳(メタデータ) (2022-02-09T05:57:08Z) - Instance-dependent Label-noise Learning under a Structural Causal Model [92.76400590283448]
ラベルノイズはディープラーニングアルゴリズムの性能を劣化させる。
構造因果モデルを活用することにより,実例依存型ラベルノイズ学習のための新しい生成手法を提案する。
論文 参考訳(メタデータ) (2021-09-07T10:42:54Z) - Noisy Labels Can Induce Good Representations [53.47668632785373]
アーキテクチャがノイズラベルによる学習に与える影響について検討する。
ノイズラベルを用いたトレーニングは,モデルが一般化に乏しい場合でも,有用な隠れ表現を誘導できることを示す。
この発見は、騒々しいラベルで訓練されたモデルを改善する簡単な方法につながります。
論文 参考訳(メタデータ) (2020-12-23T18:58:05Z) - Meta Soft Label Generation for Noisy Labels [0.0]
我々はMSLGと呼ばれるメタソフトラベル生成アルゴリズムを提案する。
MSLGはメタラーニング技術を用いてソフトラベルを共同で生成できる。
我々の手法は、他の最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2020-07-11T19:37:44Z) - Temporal Calibrated Regularization for Robust Noisy Label Learning [60.90967240168525]
ディープニューラルネットワーク(DNN)は、大規模な注釈付きデータセットの助けを借りて、多くのタスクで大きな成功を収めている。
しかし、大規模なデータのラベル付けは非常にコストがかかりエラーが発生しやすいため、アノテーションの品質を保証することは困難である。
本稿では,従来のラベルと予測を併用したTCR(Temporal Calibrated Regularization)を提案する。
論文 参考訳(メタデータ) (2020-07-01T04:48:49Z) - Label Noise Types and Their Effects on Deep Learning [0.0]
本研究では,異なる種類のラベルノイズが学習に与える影響を詳細に分析する。
本稿では,特徴に依存したラベルノイズを生成する汎用フレームワークを提案する。
他の研究者がノイズの多いラベルでアルゴリズムをテストしやすいように、最も一般的に使用されているベンチマークデータセットに対して、破損したラベルを共有します。
論文 参考訳(メタデータ) (2020-03-23T18:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。