論文の概要: Tripartite: Tackle Noisy Labels by a More Precise Partition
- arxiv url: http://arxiv.org/abs/2202.09579v1
- Date: Sat, 19 Feb 2022 11:15:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 09:10:17.045723
- Title: Tripartite: Tackle Noisy Labels by a More Precise Partition
- Title(参考訳): Tripartite: より精密な分割によるタックルノイズラベル
- Authors: Xuefeng Liang, Longshan Yao, Xingyu Liu, Ying Zhou
- Abstract要約: トレーニングデータをより正確に3つのサブセット(ハード、ノイズ、クリーン)に分割するTripartiteソリューションを提案する。
ノイズラベルの害を最小限に抑えつつノイズラベルデータの価値を最大化するために、ハードデータに低ウェイト学習を適用し、与えられたラベルを使わずにノイズラベルデータに自己教師付き学習を行う。
- 参考スコア(独自算出の注目度): 21.582850128741022
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Samples in large-scale datasets may be mislabeled due to various reasons, and
Deep Neural Networks can easily over-fit to the noisy label data. To tackle
this problem, the key point is to alleviate the harm of these noisy labels.
Many existing methods try to divide training data into clean and noisy subsets
in terms of loss values, and then process the noisy label data varied. One of
the reasons hindering a better performance is the hard samples. As hard samples
always have relatively large losses whether their labels are clean or noisy,
these methods could not divide them precisely. Instead, we propose a Tripartite
solution to partition training data more precisely into three subsets: hard,
noisy, and clean. The partition criteria are based on the inconsistent
predictions of two networks, and the inconsistency between the prediction of a
network and the given label. To minimize the harm of noisy labels but maximize
the value of noisy label data, we apply a low-weight learning on hard data and
a self-supervised learning on noisy label data without using the given labels.
Extensive experiments demonstrate that Tripartite can filter out noisy label
data more precisely, and outperforms most state-of-the-art methods on five
benchmark datasets, especially on real-world datasets.
- Abstract(参考訳): 大規模データセットのサンプルは、さまざまな理由から誤ってラベル付けされ、Deep Neural Networksはノイズの多いラベルデータに簡単に適合する。
この問題に対処するため、キーポイントは、これらのノイズラベルの害を緩和することである。
既存の多くの手法は、トレーニングデータを損失値の観点からクリーンでノイズの多いサブセットに分割し、ノイズの多いラベルデータを処理しようとする。
優れたパフォーマンスを妨げる理由の1つは、ハードサンプルである。
硬いサンプルは、ラベルが清潔かうるさいかにかかわらず、常に比較的大きな損失を被っているため、これらの手法はそれらを正確に分割することができなかった。
代わりに、トレーニングデータをより正確に3つのサブセット(ハード、ノイズ、クリーン)に分割するTripartiteソリューションを提案する。
分割基準は、2つのネットワークの一貫性のない予測と、ネットワークと与えられたラベルの予測の不整合に基づいている。
ノイズラベルの害を最小限に抑えつつ,ノイズラベルデータの価値を最大化するために,ハードデータに低重学習,ノイズラベルデータに自己教師学習を適用する。
広範な実験により、tripartiteはノイズの多いラベルデータをより正確にフィルタリングでき、5つのベンチマークデータセット、特に実世界のデータセットにおいて、最先端のメソッドよりも優れています。
関連論文リスト
- Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - FedNoisy: Federated Noisy Label Learning Benchmark [53.73816587601204]
フェデレーション学習は、クライアントからの機密データを集約することなく、分散学習で人気を集めている。
データ分離の分散と分離の性質は、データ品質によって複雑になり、ノイズの多いラベルに対してより脆弱になる可能性がある。
私たちは、研究者が潜在的にフェデレートされたノイズ設定を十分に調査するのに役立つ、最初の標準ベンチマークを提供しています。
論文 参考訳(メタデータ) (2023-06-20T16:18:14Z) - PARS: Pseudo-Label Aware Robust Sample Selection for Learning with Noisy
Labels [5.758073912084364]
PARS: Pseudo-Label Aware Robust Sample Selectionを提案する。
PARSは生・雑音ラベルと自己学習による擬似ラベルの推定・修正の両方を用いて、すべてのトレーニングサンプルを利用する。
その結果、PARSはCIFAR-10とCIFAR-100データセットに関する広範な研究において、技術の現状を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2022-01-26T09:31:55Z) - An Ensemble Noise-Robust K-fold Cross-Validation Selection Method for
Noisy Labels [0.9699640804685629]
大規模なデータセットには、ディープニューラルネットワーク(DNN)によって記憶されるような、ラベルのずれたサンプルが含まれている傾向があります。
本稿では, ノイズデータからクリーンなサンプルを効果的に選択するために, アンサンブルノイズ・ロバスト K-fold Cross-Validation Selection (E-NKCVS) を提案する。
我々は,ラベルが手動で異なる雑音比で破損した様々な画像・テキスト分類タスクに対するアプローチを評価する。
論文 参考訳(メタデータ) (2021-07-06T02:14:52Z) - INN: A Method Identifying Clean-annotated Samples via Consistency Effect
in Deep Neural Networks [1.1470070927586016]
ノイズのあるラベル付きトレーニングデータからクリーンなラベル付きデータを洗練するための新しい手法であるINNを導入する。
INN法は計算量が多いが、小型の戦略よりも安定で強力である。
論文 参考訳(メタデータ) (2021-06-29T09:06:21Z) - Instance Correction for Learning with Open-set Noisy Labels [145.06552420999986]
オープンセットノイズラベルの処理にはサンプル選択方式を用いる。
廃棄されたデータは間違ったラベルで書かれており、トレーニングには参加していない。
廃棄されたデータのインスタンスを変更して、廃棄されたデータの予測をラベルに一致させる。
論文 参考訳(メタデータ) (2021-06-01T13:05:55Z) - Noisy Labels Can Induce Good Representations [53.47668632785373]
アーキテクチャがノイズラベルによる学習に与える影響について検討する。
ノイズラベルを用いたトレーニングは,モデルが一般化に乏しい場合でも,有用な隠れ表現を誘導できることを示す。
この発見は、騒々しいラベルで訓練されたモデルを改善する簡単な方法につながります。
論文 参考訳(メタデータ) (2020-12-23T18:58:05Z) - Error-Bounded Correction of Noisy Labels [17.510654621245656]
ノイズのある分類器の予測は、トレーニングデータのラベルがクリーンかどうかを示す良い指標であることを示す。
理論的結果に基づいて,雑音分類器の予測に基づいてラベルを補正する新しいアルゴリズムを提案する。
ラベル補正アルゴリズムをディープニューラルネットワークのトレーニングや,複数の公開データセット上で優れたテスト性能を実現するトレーニングモデルに組み込む。
論文 参考訳(メタデータ) (2020-11-19T19:23:23Z) - Class2Simi: A Noise Reduction Perspective on Learning with Noisy Labels [98.13491369929798]
そこで我々は,ノイズのあるクラスラベルを持つデータポイントを,ノイズの多い類似ラベルを持つデータペアに変換するClass2Simiというフレームワークを提案する。
Class2Simiは、この変換がミニバッチのオンザフライであるだけでなく、モデル予測上の損失をペアワイズに変化させるため、計算的に効率的である。
論文 参考訳(メタデータ) (2020-06-14T07:55:32Z) - Label Noise Types and Their Effects on Deep Learning [0.0]
本研究では,異なる種類のラベルノイズが学習に与える影響を詳細に分析する。
本稿では,特徴に依存したラベルノイズを生成する汎用フレームワークを提案する。
他の研究者がノイズの多いラベルでアルゴリズムをテストしやすいように、最も一般的に使用されているベンチマークデータセットに対して、破損したラベルを共有します。
論文 参考訳(メタデータ) (2020-03-23T18:03:39Z) - Multi-Class Classification from Noisy-Similarity-Labeled Data [98.13491369929798]
雑音に類似したラベル付きデータのみから学習する方法を提案する。
ノイズ遷移行列を用いて、クリーンデータとノイズデータの間にクラス後確率をブリッジする。
雑音のないクラスラベルをインスタンスに割り当てる新しい学習システムを構築した。
論文 参考訳(メタデータ) (2020-02-16T05:10:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。