論文の概要: Ensemble Learning with Manifold-Based Data Splitting for Noisy Label
Correction
- arxiv url: http://arxiv.org/abs/2103.07641v1
- Date: Sat, 13 Mar 2021 07:24:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-18 02:31:15.664586
- Title: Ensemble Learning with Manifold-Based Data Splitting for Noisy Label
Correction
- Title(参考訳): 雑音ラベル補正のためのマニフォールドデータ分割によるアンサンブル学習
- Authors: Hao-Chiang Shao, Hsin-Chieh Wang, Weng-Tai Su, and Chia-Wen Lin
- Abstract要約: トレーニングデータのノイズラベルは モデルの一般化性能を著しく低下させる
特徴多様体の局所構造を利用して雑音ラベルを補正するアンサンブル学習法を提案する。
実世界の雑音ラベルデータセットに関する実験では,提案手法が既存手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 20.401661156102897
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Label noise in training data can significantly degrade a model's
generalization performance for supervised learning tasks. Here we focus on the
problem that noisy labels are primarily mislabeled samples, which tend to be
concentrated near decision boundaries, rather than uniformly distributed, and
whose features should be equivocal. To address the problem, we propose an
ensemble learning method to correct noisy labels by exploiting the local
structures of feature manifolds. Different from typical ensemble strategies
that increase the prediction diversity among sub-models via certain loss terms,
our method trains sub-models on disjoint subsets, each being a union of the
nearest-neighbors of randomly selected seed samples on the data manifold. As a
result, each sub-model can learn a coarse representation of the data manifold
along with a corresponding graph. Moreover, only a limited number of sub-models
will be affected by locally-concentrated noisy labels. The constructed graphs
are used to suggest a series of label correction candidates, and accordingly,
our method derives label correction results by voting down inconsistent
suggestions. Our experiments on real-world noisy label datasets demonstrate the
superiority of the proposed method over existing state-of-the-arts.
- Abstract(参考訳): トレーニングデータのラベルノイズは、教師付き学習タスクに対するモデルの一般化性能を著しく低下させる。
ここでは,ノイズラベルが,一様分布ではなく,決定境界付近に集中する傾向があり,その特徴が等価であるという問題に焦点をあてる。
そこで本研究では,特徴多様体の局所構造を利用して雑音ラベルを補正するアンサンブル学習手法を提案する。
ある損失項を通じてサブモデル間の予測の多様性を増大させる典型的なアンサンブル戦略とは異なり、本手法は分離部分集合上のサブモデルを訓練し、それぞれがデータ多様体上のランダムに選択されたシードサンプルの最も近い近辺の結合である。
その結果、各サブモデルは対応するグラフと共にデータ多様体の粗い表現を学習することができる。
さらに、局所集中型ノイズラベルの影響を受けるのは限られたサブモデルのみである。
構築したグラフはラベル補正候補の連続を示唆するために用いられ、その結果、不一致の提案を投票してラベル補正結果を導出する。
実世界の雑音ラベルデータセットに関する実験により,提案手法が既存の最先端技術よりも優れていることを示す。
関連論文リスト
- The Selected-completely-at-random Complementary Label is a Practical
Weak Supervision for Multi-class Classification [71.42360409393201]
補完ラベル学習は、弱教師付き学習問題である。
均一分布仮定に依存しない一貫した手法を提案する。
相補的なラベル学習は、負のラベル付きバイナリ分類問題の集合として表現できる。
論文 参考訳(メタデータ) (2023-11-27T02:59:17Z) - Combating Label Noise With A General Surrogate Model For Sample
Selection [84.61367781175984]
本稿では,視覚言語サロゲートモデルCLIPを用いて,雑音の多いサンプルを自動的にフィルタリングする手法を提案する。
提案手法の有効性を実世界および合成ノイズデータセットで検証した。
論文 参考訳(メタデータ) (2023-10-16T14:43:27Z) - Manifold DivideMix: A Semi-Supervised Contrastive Learning Framework for
Severe Label Noise [4.90148689564172]
実世界のデータセットには、データセットのどのクラスにも意味のないノイズの多いラベルサンプルが含まれている。
最先端の手法の多くは、IDラベル付きノイズサンプルを半教師付き学習のためのラベルなしデータとして利用する。
自己指導型トレーニングの利点を生かして,すべてのトレーニングデータからの情報を活用することを提案する。
論文 参考訳(メタデータ) (2023-08-13T23:33:33Z) - Rethinking Noisy Label Learning in Real-world Annotation Scenarios from
the Noise-type Perspective [38.24239397999152]
本稿では,雑音ラベル学習のためのサンプル選択に基づく新しい手法であるProto-semiを提案する。
Proto-semiは、すべてのサンプルをウォームアップを通じて信頼性と信頼できないデータセットに分割する。
自信のあるデータセットを活用することで、プロトタイプベクターがクラス特性をキャプチャするために構築される。
実世界の注釈付きデータセットの実証評価は、ノイズラベルから学習する問題の処理において、プロトセミの頑健さを裏付けるものである。
論文 参考訳(メタデータ) (2023-07-28T10:57:38Z) - Co-Learning Meets Stitch-Up for Noisy Multi-label Visual Recognition [70.00984078351927]
本稿では,多ラベル分類と長期学習の特徴に基づく雑音の低減に焦点をあてる。
よりクリーンなサンプルを合成し,マルチラベルノイズを直接低減するStitch-Up拡張を提案する。
ヘテロジニアス・コラーニング・フレームワークは、長い尾の分布とバランスの取れた分布の不整合を活用するためにさらに設計されている。
論文 参考訳(メタデータ) (2023-07-03T09:20:28Z) - Combining Self-labeling with Selective Sampling [2.0305676256390934]
この研究は、選択的サンプリングシナリオにおける自己ラベル技術とアクティブラーニングを組み合わせたものである。
選択したクラスに対してバイアスを課すことにより,自己ラベルの適用がパフォーマンスに悪影響を及ぼすことを示す。
提案手法は,現在の選択的サンプリング手法と一致し,より良い結果が得られる。
論文 参考訳(メタデータ) (2023-01-11T11:58:45Z) - Neighborhood Collective Estimation for Noisy Label Identification and
Correction [92.20697827784426]
ノイズラベルを用いた学習(LNL)は,ノイズラベルに対するモデルオーバーフィットの効果を軽減し,モデル性能と一般化を改善するための戦略を設計することを目的としている。
近年の進歩は、個々のサンプルのラベル分布を予測し、ノイズ検証とノイズラベル補正を行い、容易に確認バイアスを生じさせる。
提案手法では, 候補サンプルの予測信頼性を, 特徴空間近傍と対比することにより再推定する。
論文 参考訳(メタデータ) (2022-08-05T14:47:22Z) - Resolving label uncertainty with implicit posterior models [71.62113762278963]
本稿では,データサンプルのコレクション間でラベルを共同で推論する手法を提案する。
異なる予測子を後部とする生成モデルの存在を暗黙的に仮定することにより、弱い信念の下での学習を可能にする訓練目標を導出する。
論文 参考訳(メタデータ) (2022-02-28T18:09:44Z) - CrowdTeacher: Robust Co-teaching with Noisy Answers & Sample-specific
Perturbations for Tabular Data [8.276156981100364]
コティーチング手法は、ノイズの多いラベルによるコンピュータビジョン問題に対する有望な改善を示している。
我々のモデルであるcrowdteacherは、入力空間モデルのロバスト性がノイズラベルの分類器の摂動を改善することができるという考えを採用している。
合成データと実データの両方でCrowdTeacherを用いて予測能力の向上を示す。
論文 参考訳(メタデータ) (2021-03-31T15:09:38Z) - SPL-MLL: Selecting Predictable Landmarks for Multi-Label Learning [87.27700889147144]
我々は、入力(予測可能)に応じて予測しやすく、他の可能なラベル(表現可能)をうまく回復できるランドマークとして、ラベルの小さなサブセットを選択することを提案する。
我々は,ADM(Alternating Direction Method)を用いてこの問題を解決する。実世界のデータセットに関する実証研究により,本手法が他の最先端手法よりも優れた分類性能を実現することを示す。
論文 参考訳(メタデータ) (2020-08-16T11:07:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。