論文の概要: Combining Distance to Class Centroids and Outlier Discounting for
Improved Learning with Noisy Labels
- arxiv url: http://arxiv.org/abs/2303.09470v1
- Date: Thu, 16 Mar 2023 16:43:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 14:34:54.632062
- Title: Combining Distance to Class Centroids and Outlier Discounting for
Improved Learning with Noisy Labels
- Title(参考訳): 雑音ラベルによる学習改善のためのクラスセントロイド距離とアウトリーディスカウントの組み合わせ
- Authors: Farooq Ahmad Wani, Maria Sofia Bucarelli, Fabrizio Silvestri
- Abstract要約: 本稿では,ノイズラベルの存在下で機械学習モデルを訓練する上での課題に対処する新しいアプローチを提案する。
商品の潜在空間におけるクラスセントロイド間の距離の巧妙な利用と割引戦略を組み合わせることで,ノイズラベルの問題に効果的に対処する。
- 参考スコア(独自算出の注目度): 2.7015270371106546
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a new approach for addressing the challenge of
training machine learning models in the presence of noisy labels. By combining
a clever usage of distance to class centroids in the items' latent space with a
discounting strategy to reduce the importance of samples far away from all the
class centroids (i.e., outliers), our method effectively addresses the issue of
noisy labels. Our approach is based on the idea that samples farther away from
their respective class centroid in the early stages of training are more likely
to be noisy. We demonstrate the effectiveness of our method through extensive
experiments on several popular benchmark datasets. Our results show that our
approach outperforms the state-of-the-art in this area, achieving significant
improvements in classification accuracy when the dataset contains noisy labels.
- Abstract(参考訳): 本稿では,ノイズラベルの存在下での機械学習モデルのトレーニングの課題に対処するための新しい手法を提案する。
アイテムの潜在空間におけるクラスセントロイド間距離の巧妙な使用法と割引戦略を組み合わせることで、全てのクラスセントロイド(すなわち、外れ値)から遠く離れたサンプルの重要性を減らし、ノイズラベルの問題に効果的に対処する。
私たちのアプローチは、トレーニングの初期段階でそれぞれのクラスセントロイドから遠く離れたサンプルの方がノイズが多い、という考え方に基づいています。
提案手法の有効性を,いくつかの一般的なベンチマークデータセットを用いた広範囲な実験により実証する。
以上の結果から,本手法は本分野の最先端技術よりも優れており,ノイズラベルを含むデータセットの分類精度が大幅に向上していることがわかった。
関連論文リスト
- Multi-View Knowledge Distillation from Crowd Annotations for
Out-of-Domain Generalization [53.24606510691877]
本稿では,既存の手法で生成した分布を集約することで,クラウドアノテーションからソフトラベルを取得する新しい手法を提案する。
これらのアグリゲーション手法を用いることで、ドメイン外のテストセットで4つのNLPタスクにまたがる最高の、あるいは最も近いパフォーマンスが得られることを実証する。
論文 参考訳(メタデータ) (2022-12-19T12:40:18Z) - An Embarrassingly Simple Approach to Semi-Supervised Few-Shot Learning [58.59343434538218]
間接学習の観点から、ラベルなしデータの正負の擬似ラベルを正確に予測するための、単純だが非常に効果的な手法を提案する。
私たちのアプローチは、オフザシェルフ操作のみを使用することで、ほんの数行のコードで実装できます。
論文 参考訳(メタデータ) (2022-09-28T02:11:34Z) - Neighborhood Collective Estimation for Noisy Label Identification and
Correction [92.20697827784426]
ノイズラベルを用いた学習(LNL)は,ノイズラベルに対するモデルオーバーフィットの効果を軽減し,モデル性能と一般化を改善するための戦略を設計することを目的としている。
近年の進歩は、個々のサンプルのラベル分布を予測し、ノイズ検証とノイズラベル補正を行い、容易に確認バイアスを生じさせる。
提案手法では, 候補サンプルの予測信頼性を, 特徴空間近傍と対比することにより再推定する。
論文 参考訳(メタデータ) (2022-08-05T14:47:22Z) - Learning with Neighbor Consistency for Noisy Labels [69.83857578836769]
特徴空間におけるトレーニング例間の類似性を利用した雑音ラベルから学習する手法を提案する。
合成(CIFAR-10, CIFAR-100)とリアル(mini-WebVision, Clothing1M, mini-ImageNet-Red)の両方のノイズを評価するデータセットの評価を行った。
論文 参考訳(メタデータ) (2022-02-04T15:46:27Z) - Noisy Annotation Refinement for Object Detection [47.066070566714984]
本稿では,クラスラベルとバウンディングボックスのアノテーションの絡み合った雑音を持つデータセット上でオブジェクト検出器を訓練する新たな問題設定を提案する。
提案手法は, 絡み合った雑音を効率よく分離し, ノイズを補正し, 修正したアノテーションを用いて検出器を訓練する。
論文 参考訳(メタデータ) (2021-10-20T09:39:50Z) - CrowdTeacher: Robust Co-teaching with Noisy Answers & Sample-specific
Perturbations for Tabular Data [8.276156981100364]
コティーチング手法は、ノイズの多いラベルによるコンピュータビジョン問題に対する有望な改善を示している。
我々のモデルであるcrowdteacherは、入力空間モデルのロバスト性がノイズラベルの分類器の摂動を改善することができるという考えを採用している。
合成データと実データの両方でCrowdTeacherを用いて予測能力の向上を示す。
論文 参考訳(メタデータ) (2021-03-31T15:09:38Z) - Noise-resistant Deep Metric Learning with Ranking-based Instance
Selection [59.286567680389766]
PRISM(Probabilistic Ranking-based Instance Selection with Memory)と呼ばれるDMLの耐騒音トレーニング技術を提案する。
PRISMは、ニューラルネットワークの以前のバージョンから抽出された画像特徴との平均的類似性を用いて、ミニバッチ内のノイズデータを識別する。
メモリバンクが生み出す高い計算コストを緩和するために,個々のデータポイントをクラスセンタに置き換える高速化手法を提案する。
論文 参考訳(メタデータ) (2021-03-30T03:22:17Z) - Ensemble Learning with Manifold-Based Data Splitting for Noisy Label
Correction [20.401661156102897]
トレーニングデータのノイズラベルは モデルの一般化性能を著しく低下させる
特徴多様体の局所構造を利用して雑音ラベルを補正するアンサンブル学習法を提案する。
実世界の雑音ラベルデータセットに関する実験では,提案手法が既存手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-03-13T07:24:58Z) - Decoupling Representation and Classifier for Noisy Label Learning [35.85519762191644]
畳み込みニューラルネットワーク(ConvNet)は、ノイズラベルを容易に記憶することができる。
ConvNetsを堅牢にトレーニングすることは、大きな課題でした。
本稿では,雑音ラベルから頑健に学習するための新しい手法,すなわちREEDを提案する。
論文 参考訳(メタデータ) (2020-11-16T18:13:41Z) - EvidentialMix: Learning with Combined Open-set and Closed-set Noisy
Labels [30.268962418683955]
開集合ラベルと閉集合ラベルを組み合わせた雑音ラベル問題の新しい変種について検討する。
その結果,従来の最先端手法よりも優れた分類結果と特徴表現が得られた。
論文 参考訳(メタデータ) (2020-11-11T11:15:32Z) - Learning Not to Learn in the Presence of Noisy Labels [104.7655376309784]
ギャンブラーの損失と呼ばれる新しい種類の損失関数は、様々なレベルの汚職にまたがってノイズをラベル付けするのに強い堅牢性をもたらすことを示す。
この損失関数によるトレーニングは、ノイズのあるラベルを持つデータポイントでの学習を"維持"することをモデルに促すことを示す。
論文 参考訳(メタデータ) (2020-02-16T09:12:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。