論文の概要: Ensemble Learning with Manifold-Based Data Splitting for Noisy Label
Correction
- arxiv url: http://arxiv.org/abs/2103.07641v1
- Date: Sat, 13 Mar 2021 07:24:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-18 02:31:15.664586
- Title: Ensemble Learning with Manifold-Based Data Splitting for Noisy Label
Correction
- Title(参考訳): 雑音ラベル補正のためのマニフォールドデータ分割によるアンサンブル学習
- Authors: Hao-Chiang Shao, Hsin-Chieh Wang, Weng-Tai Su, and Chia-Wen Lin
- Abstract要約: トレーニングデータのノイズラベルは モデルの一般化性能を著しく低下させる
特徴多様体の局所構造を利用して雑音ラベルを補正するアンサンブル学習法を提案する。
実世界の雑音ラベルデータセットに関する実験では,提案手法が既存手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 20.401661156102897
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Label noise in training data can significantly degrade a model's
generalization performance for supervised learning tasks. Here we focus on the
problem that noisy labels are primarily mislabeled samples, which tend to be
concentrated near decision boundaries, rather than uniformly distributed, and
whose features should be equivocal. To address the problem, we propose an
ensemble learning method to correct noisy labels by exploiting the local
structures of feature manifolds. Different from typical ensemble strategies
that increase the prediction diversity among sub-models via certain loss terms,
our method trains sub-models on disjoint subsets, each being a union of the
nearest-neighbors of randomly selected seed samples on the data manifold. As a
result, each sub-model can learn a coarse representation of the data manifold
along with a corresponding graph. Moreover, only a limited number of sub-models
will be affected by locally-concentrated noisy labels. The constructed graphs
are used to suggest a series of label correction candidates, and accordingly,
our method derives label correction results by voting down inconsistent
suggestions. Our experiments on real-world noisy label datasets demonstrate the
superiority of the proposed method over existing state-of-the-arts.
- Abstract(参考訳): トレーニングデータのラベルノイズは、教師付き学習タスクに対するモデルの一般化性能を著しく低下させる。
ここでは,ノイズラベルが,一様分布ではなく,決定境界付近に集中する傾向があり,その特徴が等価であるという問題に焦点をあてる。
そこで本研究では,特徴多様体の局所構造を利用して雑音ラベルを補正するアンサンブル学習手法を提案する。
ある損失項を通じてサブモデル間の予測の多様性を増大させる典型的なアンサンブル戦略とは異なり、本手法は分離部分集合上のサブモデルを訓練し、それぞれがデータ多様体上のランダムに選択されたシードサンプルの最も近い近辺の結合である。
その結果、各サブモデルは対応するグラフと共にデータ多様体の粗い表現を学習することができる。
さらに、局所集中型ノイズラベルの影響を受けるのは限られたサブモデルのみである。
構築したグラフはラベル補正候補の連続を示唆するために用いられ、その結果、不一致の提案を投票してラベル補正結果を導出する。
実世界の雑音ラベルデータセットに関する実験により,提案手法が既存の最先端技術よりも優れていることを示す。
関連論文リスト
- Label Noise Robustness for Domain-Agnostic Fair Corrections via Nearest Neighbors Label Spreading [28.69917037694153]
最終層再学習におけるラベルノイズに対するドロップイン補正を提案する。
提案手法では,最寄りのグラフ上にラベルを拡散させ,計算オーバーヘッドを最小限に抑える。
論文 参考訳(メタデータ) (2024-06-13T20:00:06Z) - Inaccurate Label Distribution Learning with Dependency Noise [52.08553913094809]
本稿では,依存雑音に基づく不正確なラベル分布学習(DN-ILDL)フレームワークを導入し,ラベル分布学習におけるノイズによる課題に対処する。
本稿では,DN-ILDLがILDL問題に効果的に対処し,既存のLCL法より優れていることを示す。
論文 参考訳(メタデータ) (2024-05-26T07:58:07Z) - Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - Learning with Complementary Labels Revisited: The Selected-Completely-at-Random Setting Is More Practical [66.57396042747706]
補完ラベル学習は、弱教師付き学習問題である。
均一分布仮定に依存しない一貫したアプローチを提案する。
相補的なラベル学習は、負のラベル付きバイナリ分類問題の集合として表現できる。
論文 参考訳(メタデータ) (2023-11-27T02:59:17Z) - Manifold DivideMix: A Semi-Supervised Contrastive Learning Framework for
Severe Label Noise [4.90148689564172]
実世界のデータセットには、データセットのどのクラスにも意味のないノイズの多いラベルサンプルが含まれている。
最先端の手法の多くは、IDラベル付きノイズサンプルを半教師付き学習のためのラベルなしデータとして利用する。
自己指導型トレーニングの利点を生かして,すべてのトレーニングデータからの情報を活用することを提案する。
論文 参考訳(メタデータ) (2023-08-13T23:33:33Z) - Co-Learning Meets Stitch-Up for Noisy Multi-label Visual Recognition [70.00984078351927]
本稿では,多ラベル分類と長期学習の特徴に基づく雑音の低減に焦点をあてる。
よりクリーンなサンプルを合成し,マルチラベルノイズを直接低減するStitch-Up拡張を提案する。
ヘテロジニアス・コラーニング・フレームワークは、長い尾の分布とバランスの取れた分布の不整合を活用するためにさらに設計されている。
論文 参考訳(メタデータ) (2023-07-03T09:20:28Z) - Neighborhood Collective Estimation for Noisy Label Identification and
Correction [92.20697827784426]
ノイズラベルを用いた学習(LNL)は,ノイズラベルに対するモデルオーバーフィットの効果を軽減し,モデル性能と一般化を改善するための戦略を設計することを目的としている。
近年の進歩は、個々のサンプルのラベル分布を予測し、ノイズ検証とノイズラベル補正を行い、容易に確認バイアスを生じさせる。
提案手法では, 候補サンプルの予測信頼性を, 特徴空間近傍と対比することにより再推定する。
論文 参考訳(メタデータ) (2022-08-05T14:47:22Z) - Resolving label uncertainty with implicit posterior models [71.62113762278963]
本稿では,データサンプルのコレクション間でラベルを共同で推論する手法を提案する。
異なる予測子を後部とする生成モデルの存在を暗黙的に仮定することにより、弱い信念の下での学習を可能にする訓練目標を導出する。
論文 参考訳(メタデータ) (2022-02-28T18:09:44Z) - CrowdTeacher: Robust Co-teaching with Noisy Answers & Sample-specific
Perturbations for Tabular Data [8.276156981100364]
コティーチング手法は、ノイズの多いラベルによるコンピュータビジョン問題に対する有望な改善を示している。
我々のモデルであるcrowdteacherは、入力空間モデルのロバスト性がノイズラベルの分類器の摂動を改善することができるという考えを採用している。
合成データと実データの両方でCrowdTeacherを用いて予測能力の向上を示す。
論文 参考訳(メタデータ) (2021-03-31T15:09:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。