論文の概要: LaplaceConfidence: a Graph-based Approach for Learning with Noisy Labels
- arxiv url: http://arxiv.org/abs/2307.16614v1
- Date: Mon, 31 Jul 2023 12:44:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 14:41:57.670247
- Title: LaplaceConfidence: a Graph-based Approach for Learning with Noisy Labels
- Title(参考訳): LaplaceConfidence: ノイズラベルによる学習のためのグラフベースのアプローチ
- Authors: Mingcai Chen, Yuntao Du, Wei Tang, Baoming Zhang, Hao Cheng, Shuwei
Qian, Chongjun Wang
- Abstract要約: ラプラスエネルギーを利用したラベル信頼(クリーン確率)を得る方法であるラプラス信頼(LaplaceConfidence)を紹介する。
LaplaceConfidenceはロバストトレーニングのための総合的な方法に組み込まれており、コトレーニング技術はラベルの信頼性を損なう。
我々の実験は、LaplaceConfidenceが、合成ノイズと実世界のノイズの両方の下で、ベンチマークデータセットの最先端の手法より優れていることを示した。
- 参考スコア(独自算出の注目度): 17.66525177980075
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In real-world applications, perfect labels are rarely available, making it
challenging to develop robust machine learning algorithms that can handle noisy
labels. Recent methods have focused on filtering noise based on the discrepancy
between model predictions and given noisy labels, assuming that samples with
small classification losses are clean. This work takes a different approach by
leveraging the consistency between the learned model and the entire noisy
dataset using the rich representational and topological information in the
data. We introduce LaplaceConfidence, a method that to obtain label confidence
(i.e., clean probabilities) utilizing the Laplacian energy. Specifically, it
first constructs graphs based on the feature representations of all noisy
samples and minimizes the Laplacian energy to produce a low-energy graph. Clean
labels should fit well into the low-energy graph while noisy ones should not,
allowing our method to determine data's clean probabilities. Furthermore,
LaplaceConfidence is embedded into a holistic method for robust training, where
co-training technique generates unbiased label confidence and label
refurbishment technique better utilizes it. We also explore the dimensionality
reduction technique to accommodate our method on large-scale noisy datasets.
Our experiments demonstrate that LaplaceConfidence outperforms state-of-the-art
methods on benchmark datasets under both synthetic and real-world noise.
- Abstract(参考訳): 現実世界のアプリケーションでは、完璧なラベルが利用できることは滅多になく、騒がしいラベルを処理できる堅牢な機械学習アルゴリズムを開発するのが難しい。
最近の手法では, 分類損失の少ないサンプルはクリーンであると仮定し, モデル予測と雑音ラベルの差異に着目し, ノイズのフィルタリングに焦点をあてている。
この研究は、データ内のリッチな表現的およびトポロジカルな情報を使用して、学習モデルとノイズデータセット全体の一貫性を活用することで、異なるアプローチを採用している。
ラプラシアンエネルギーを利用したラベル信頼度(すなわちクリーンな確率)を得る手法であるlaplaceconfidenceを提案する。
具体的には、まずすべてのノイズサンプルの特徴表現に基づいてグラフを構築し、ラプラシアンエネルギーを最小にして低エネルギーグラフを生成する。
クリーンラベルは低エネルギーグラフによく適合するが、ノイズの多いラベルには適合しない。
さらに、laplaceconfidenceは、ロバストトレーニングのための総合的な方法に組み込まれており、共訓練技術がバイアスのないラベル信頼度を生成し、ラベル更新技術がより活用される。
また,本手法を大規模ノイズデータセットに適用するための次元削減手法についても検討する。
実験の結果,laplaceconfidenceは,合成音と実環境音の両方において,ベンチマークデータセットにおける最先端手法よりも優れていることがわかった。
関連論文リスト
- Learning with Confidence: Training Better Classifiers from Soft Labels [0.0]
教師付き機械学習では、モデルは通常、ハードラベルを持つデータ、すなわちクラスメンバーシップの明確な割り当てを用いて訓練される。
クラスラベル上の離散確率分布として表されるラベルの不確実性を組み込むことで,分類モデルの予測性能が向上するかどうかを検討する。
論文 参考訳(メタデータ) (2024-09-24T13:12:29Z) - Learning from Noisy Labels for Long-tailed Data via Optimal Transport [2.8821062918162146]
本稿では,長周期分布と雑音ラベルの両方を特徴とするデータ管理手法を提案する。
そこで我々は,半教師付き学習方式で擬似ラベルを生成するために,最適な輸送戦略を採用した。
論文 参考訳(メタデータ) (2024-08-07T14:15:18Z) - Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - Rethinking Noisy Label Learning in Real-world Annotation Scenarios from
the Noise-type Perspective [38.24239397999152]
本稿では,雑音ラベル学習のためのサンプル選択に基づく新しい手法であるProto-semiを提案する。
Proto-semiは、すべてのサンプルをウォームアップを通じて信頼性と信頼できないデータセットに分割する。
自信のあるデータセットを活用することで、プロトタイプベクターがクラス特性をキャプチャするために構築される。
実世界の注釈付きデータセットの実証評価は、ノイズラベルから学習する問題の処理において、プロトセミの頑健さを裏付けるものである。
論文 参考訳(メタデータ) (2023-07-28T10:57:38Z) - Label-Retrieval-Augmented Diffusion Models for Learning from Noisy
Labels [61.97359362447732]
ノイズの多いラベルからの学習は、実際のアプリケーションのための機械学習において、重要かつ長年にわたる問題である。
本稿では,生成モデルの観点からラベルノイズ問題を再構成する。
我々のモデルは、標準的な実世界のベンチマークデータセットで新しいSOTA(State-of-the-art)結果を達成する。
論文 参考訳(メタデータ) (2023-05-31T03:01:36Z) - Neighborhood Collective Estimation for Noisy Label Identification and
Correction [92.20697827784426]
ノイズラベルを用いた学習(LNL)は,ノイズラベルに対するモデルオーバーフィットの効果を軽減し,モデル性能と一般化を改善するための戦略を設計することを目的としている。
近年の進歩は、個々のサンプルのラベル分布を予測し、ノイズ検証とノイズラベル補正を行い、容易に確認バイアスを生じさせる。
提案手法では, 候補サンプルの予測信頼性を, 特徴空間近傍と対比することにより再推定する。
論文 参考訳(メタデータ) (2022-08-05T14:47:22Z) - Learning with Neighbor Consistency for Noisy Labels [69.83857578836769]
特徴空間におけるトレーニング例間の類似性を利用した雑音ラベルから学習する手法を提案する。
合成(CIFAR-10, CIFAR-100)とリアル(mini-WebVision, Clothing1M, mini-ImageNet-Red)の両方のノイズを評価するデータセットの評価を行った。
論文 参考訳(メタデータ) (2022-02-04T15:46:27Z) - Learning with Noisy Labels Revisited: A Study Using Real-World Human
Annotations [54.400167806154535]
ノイズラベルを用いた学習に関する既存の研究は、主に合成ラベルノイズに焦点を当てている。
本研究は2つの新しいベンチマークデータセット(CIFAR-10N, CIFAR-100N)を示す。
実世界のノイズラベルは古典的に採用されたクラス依存のラベルではなく、インスタンス依存のパターンに従うことを示す。
論文 参考訳(メタデータ) (2021-10-22T22:42:11Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。