論文の概要: A Topological Filter for Learning with Label Noise
- arxiv url: http://arxiv.org/abs/2012.04835v1
- Date: Wed, 9 Dec 2020 02:52:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 02:12:39.020489
- Title: A Topological Filter for Learning with Label Noise
- Title(参考訳): ラベル雑音による学習のためのトポロジカルフィルタ
- Authors: Pengxiang Wu, Songzhu Zheng, Mayank Goswami, Dimitris Metaxas, Chao
Chen
- Abstract要約: ノイズラベルはディープニューラルネットワークの性能を損なう可能性がある。
ラベルノイズをフィルタリングする新しい手法を提案する。
データの高次トポロジカル情報を活用することで、ほとんどのクリーンデータを収集し、高品質のモデルをトレーニングすることができます。
- 参考スコア(独自算出の注目度): 17.012872507686744
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Noisy labels can impair the performance of deep neural networks. To tackle
this problem, in this paper, we propose a new method for filtering label noise.
Unlike most existing methods relying on the posterior probability of a noisy
classifier, we focus on the much richer spatial behavior of data in the latent
representational space. By leveraging the high-order topological information of
data, we are able to collect most of the clean data and train a high-quality
model. Theoretically we prove that this topological approach is guaranteed to
collect the clean data with high probability. Empirical results show that our
method outperforms the state-of-the-arts and is robust to a broad spectrum of
noise types and levels.
- Abstract(参考訳): ノイズラベルはディープニューラルネットワークの性能を損なう可能性がある。
そこで本研究では,ラベルノイズをフィルタリングする新しい手法を提案する。
ノイズのある分類器の後方確率に依存する既存の手法とは異なり、潜在表現空間におけるデータのよりリッチな空間的挙動に焦点をあてる。
データの高次トポロジ情報を活用することで,クリーンなデータの大部分を収集し,高品質なモデルをトレーニングすることが可能になります。
理論的には、このトポロジカルアプローチは、高い確率でクリーンなデータを集めることが保証されている。
実験結果から,本手法は最先端技術より優れ,騒音の種類やレベルが広い範囲で高いことを示す。
関連論文リスト
- Learning from Noisy Labels for Long-tailed Data via Optimal Transport [2.8821062918162146]
本稿では,長周期分布と雑音ラベルの両方を特徴とするデータ管理手法を提案する。
そこで我々は,半教師付き学習方式で擬似ラベルを生成するために,最適な輸送戦略を採用した。
論文 参考訳(メタデータ) (2024-08-07T14:15:18Z) - Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - Mitigating Label Noise on Graph via Topological Sample Selection [72.86862597508077]
トポロジ情報を活用することで,グラフ内の情報的サンプル選択プロセスを促進できる$textitTopological Sample Selection$ (TSS)法を提案する。
提案手法は,対象のクリーン分布下での予測されるリスク上限の上限を最小化し,最先端のベースラインと比較して,提案手法の優位性を実験的に示す。
論文 参考訳(メタデータ) (2024-03-04T11:24:51Z) - Feature Noise Boosts DNN Generalization under Label Noise [65.36889005555669]
トレーニングデータにおけるラベルノイズの存在は、ディープニューラルネットワーク(DNN)の一般化に大きな影響を与える
本研究では,学習データの特徴に直接ノイズを付加する単純な特徴雑音法を,理論的に導入し,理論的に実証する。
論文 参考訳(メタデータ) (2023-08-03T08:31:31Z) - LaplaceConfidence: a Graph-based Approach for Learning with Noisy Labels [17.66525177980075]
ラプラスエネルギーを利用したラベル信頼(クリーン確率)を得る方法であるラプラス信頼(LaplaceConfidence)を紹介する。
LaplaceConfidenceはロバストトレーニングのための総合的な方法に組み込まれており、コトレーニング技術はラベルの信頼性を損なう。
我々の実験は、LaplaceConfidenceが、合成ノイズと実世界のノイズの両方の下で、ベンチマークデータセットの最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2023-07-31T12:44:30Z) - Hard Sample Aware Noise Robust Learning for Histopathology Image
Classification [4.75542005200538]
病理組織像分類のための新しいハードサンプル認識型ノイズロバスト学習法を提案する。
本研究は, 難燃性難燃性試料と難燃性試料とを識別するため, 簡易・難燃性検出モデルを構築した。
本稿では,雑音抑圧・高強度化(NSHE)方式を提案する。
論文 参考訳(メタデータ) (2021-12-05T11:07:55Z) - Training Classifiers that are Universally Robust to All Label Noise
Levels [91.13870793906968]
ディープニューラルネットワークは、ラベルノイズの存在下で過度に適合する傾向がある。
ポジティヴ・アンラベルラーニングの新たなサブカテゴリを取り入れた蒸留ベースのフレームワークを提案する。
我々の枠組みは概して中~高騒音レベルにおいて優れています。
論文 参考訳(メタデータ) (2021-05-27T13:49:31Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - Deep k-NN for Noisy Labels [55.97221021252733]
予備モデルのロジット層上での単純な$k$-nearest近傍フィルタリング手法により、ラベルの誤りを除去し、最近提案された多くの手法よりも正確なモデルを生成することができることを示す。
論文 参考訳(メタデータ) (2020-04-26T05:15:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。