論文の概要: Combining Distance to Class Centroids and Outlier Discounting for
Improved Learning with Noisy Labels
- arxiv url: http://arxiv.org/abs/2303.09470v1
- Date: Thu, 16 Mar 2023 16:43:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 14:34:54.632062
- Title: Combining Distance to Class Centroids and Outlier Discounting for
Improved Learning with Noisy Labels
- Title(参考訳): 雑音ラベルによる学習改善のためのクラスセントロイド距離とアウトリーディスカウントの組み合わせ
- Authors: Farooq Ahmad Wani, Maria Sofia Bucarelli, Fabrizio Silvestri
- Abstract要約: 本稿では,ノイズラベルの存在下で機械学習モデルを訓練する上での課題に対処する新しいアプローチを提案する。
商品の潜在空間におけるクラスセントロイド間の距離の巧妙な利用と割引戦略を組み合わせることで,ノイズラベルの問題に効果的に対処する。
- 参考スコア(独自算出の注目度): 2.7015270371106546
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a new approach for addressing the challenge of
training machine learning models in the presence of noisy labels. By combining
a clever usage of distance to class centroids in the items' latent space with a
discounting strategy to reduce the importance of samples far away from all the
class centroids (i.e., outliers), our method effectively addresses the issue of
noisy labels. Our approach is based on the idea that samples farther away from
their respective class centroid in the early stages of training are more likely
to be noisy. We demonstrate the effectiveness of our method through extensive
experiments on several popular benchmark datasets. Our results show that our
approach outperforms the state-of-the-art in this area, achieving significant
improvements in classification accuracy when the dataset contains noisy labels.
- Abstract(参考訳): 本稿では,ノイズラベルの存在下での機械学習モデルのトレーニングの課題に対処するための新しい手法を提案する。
アイテムの潜在空間におけるクラスセントロイド間距離の巧妙な使用法と割引戦略を組み合わせることで、全てのクラスセントロイド(すなわち、外れ値)から遠く離れたサンプルの重要性を減らし、ノイズラベルの問題に効果的に対処する。
私たちのアプローチは、トレーニングの初期段階でそれぞれのクラスセントロイドから遠く離れたサンプルの方がノイズが多い、という考え方に基づいています。
提案手法の有効性を,いくつかの一般的なベンチマークデータセットを用いた広範囲な実験により実証する。
以上の結果から,本手法は本分野の最先端技術よりも優れており,ノイズラベルを含むデータセットの分類精度が大幅に向上していることがわかった。
関連論文リスト
- Co-Learning Meets Stitch-Up for Noisy Multi-label Visual Recognition [70.00984078351927]
本稿では,多ラベル分類と長期学習の特徴に基づく雑音の低減に焦点をあてる。
よりクリーンなサンプルを合成し,マルチラベルノイズを直接低減するStitch-Up拡張を提案する。
ヘテロジニアス・コラーニング・フレームワークは、長い尾の分布とバランスの取れた分布の不整合を活用するためにさらに設計されている。
論文 参考訳(メタデータ) (2023-07-03T09:20:28Z) - MuRAL: Multi-Scale Region-based Active Learning for Object Detection [20.478741635006116]
オブジェクト検出のためのマルチスケール領域ベースアクティブラーニング(MuRAL)と呼ばれる新しい手法を提案する。
MuRALは、様々なスケールの情報領域を特定して、よく学習されたオブジェクトのアノテーションコストを削減する。
提案手法は,Cityscapes および MS COCO データセットの粗粒度および細粒度ベースラインを網羅する。
論文 参考訳(メタデータ) (2023-03-29T12:52:27Z) - SLaM: Student-Label Mixing for Distillation with Unlabeled Examples [15.825078347452024]
学生ラベル混合(SLaM)と呼ばれる未ラベル例を用いた知識蒸留の原理的手法を提案する。
SLaMは、いくつかの標準ベンチマークで評価することで、従来のアプローチよりも一貫して改善されている。
ランダムな分類雑音下でハーフスペースを学習する際の最もよく知られたサンプル複雑性を改善するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-08T00:14:44Z) - An Embarrassingly Simple Approach to Semi-Supervised Few-Shot Learning [58.59343434538218]
間接学習の観点から、ラベルなしデータの正負の擬似ラベルを正確に予測するための、単純だが非常に効果的な手法を提案する。
私たちのアプローチは、オフザシェルフ操作のみを使用することで、ほんの数行のコードで実装できます。
論文 参考訳(メタデータ) (2022-09-28T02:11:34Z) - Learning with Neighbor Consistency for Noisy Labels [69.83857578836769]
特徴空間におけるトレーニング例間の類似性を利用した雑音ラベルから学習する手法を提案する。
合成(CIFAR-10, CIFAR-100)とリアル(mini-WebVision, Clothing1M, mini-ImageNet-Red)の両方のノイズを評価するデータセットの評価を行った。
論文 参考訳(メタデータ) (2022-02-04T15:46:27Z) - SparseDet: Improving Sparsely Annotated Object Detection with
Pseudo-positive Mining [76.95808270536318]
Pseudo- positive mining を用いてラベル付き地域とラベルなし地域を分離するエンド・ツー・エンドシステムを提案する。
ラベル付き領域は通常通り処理されるが、ラベルなし領域の処理には自己教師付き学習が使用される。
我々は,PASCAL-VOCとCOCOデータセットの5つの分割に対して,最先端の性能を達成するための徹底的な実験を行った。
論文 参考訳(メタデータ) (2022-01-12T18:57:04Z) - Noisy Annotation Refinement for Object Detection [47.066070566714984]
本稿では,クラスラベルとバウンディングボックスのアノテーションの絡み合った雑音を持つデータセット上でオブジェクト検出器を訓練する新たな問題設定を提案する。
提案手法は, 絡み合った雑音を効率よく分離し, ノイズを補正し, 修正したアノテーションを用いて検出器を訓練する。
論文 参考訳(メタデータ) (2021-10-20T09:39:50Z) - Noise-resistant Deep Metric Learning with Ranking-based Instance
Selection [59.286567680389766]
PRISM(Probabilistic Ranking-based Instance Selection with Memory)と呼ばれるDMLの耐騒音トレーニング技術を提案する。
PRISMは、ニューラルネットワークの以前のバージョンから抽出された画像特徴との平均的類似性を用いて、ミニバッチ内のノイズデータを識別する。
メモリバンクが生み出す高い計算コストを緩和するために,個々のデータポイントをクラスセンタに置き換える高速化手法を提案する。
論文 参考訳(メタデータ) (2021-03-30T03:22:17Z) - EvidentialMix: Learning with Combined Open-set and Closed-set Noisy
Labels [30.268962418683955]
開集合ラベルと閉集合ラベルを組み合わせた雑音ラベル問題の新しい変種について検討する。
その結果,従来の最先端手法よりも優れた分類結果と特徴表現が得られた。
論文 参考訳(メタデータ) (2020-11-11T11:15:32Z) - Learning Not to Learn in the Presence of Noisy Labels [104.7655376309784]
ギャンブラーの損失と呼ばれる新しい種類の損失関数は、様々なレベルの汚職にまたがってノイズをラベル付けするのに強い堅牢性をもたらすことを示す。
この損失関数によるトレーニングは、ノイズのあるラベルを持つデータポイントでの学習を"維持"することをモデルに促すことを示す。
論文 参考訳(メタデータ) (2020-02-16T09:12:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。