論文の概要: Learning from Long-Tailed Noisy Data with Sample Selection and Balanced
Loss
- arxiv url: http://arxiv.org/abs/2211.10906v3
- Date: Sun, 28 May 2023 08:39:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 02:53:35.211917
- Title: Learning from Long-Tailed Noisy Data with Sample Selection and Balanced
Loss
- Title(参考訳): サンプル選択と平衡損失を用いた長周期雑音データからの学習
- Authors: Lefan Zhang, Zhang-Hao Tian, Wujun Zhou, Wei Wang
- Abstract要約: 本稿では,長い尾を持つ雑音データからサンプル選択と損失のバランスをとる頑健な学習法を提案する。
具体的には、ノイズのあるトレーニングデータをクリーンなラベル付きセットとサンプル選択付き未ラベルセットに分離し、半教師付きで深層ニューラルネットワークをトレーニングする。
- 参考スコア(独自算出の注目度): 8.71234615872208
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The success of deep learning depends on large-scale and well-curated training
data, while data in real-world applications are commonly long-tailed and noisy.
Many methods have been proposed to deal with long-tailed data or noisy data,
while a few methods are developed to tackle long-tailed noisy data. To solve
this, we propose a robust method for learning from long-tailed noisy data with
sample selection and balanced loss. Specifically, we separate the noisy
training data into clean labeled set and unlabeled set with sample selection,
and train the deep neural network in a semi-supervised manner with a balanced
loss based on model bias. Extensive experiments on benchmarks demonstrate that
our method outperforms existing state-of-the-art methods.
- Abstract(参考訳): ディープラーニングの成功は、大規模かつ高精細なトレーニングデータに依存する一方で、現実世界のアプリケーションにおけるデータは、一般的にロングテールでノイズが多い。
ロングテールデータやノイズデータを扱うために多くの手法が提案されているが、ロングテールデータを扱うためにいくつかの手法が開発されている。
そこで本研究では,長い尾を持つ雑音データからサンプル選択と損失のバランスをとる頑健な学習法を提案する。
具体的には、ノイズのあるトレーニングデータをクリーンなラベル付きセットとサンプル選択付き未ラベルセットに分離し、モデルバイアスに基づくバランスの取れた損失で、深いニューラルネットワークを半教師付きでトレーニングする。
ベンチマーク実験により,本手法が既存の最先端手法より優れていることが示された。
関連論文リスト
- Learning from Noisy Labels for Long-tailed Data via Optimal Transport [2.8821062918162146]
本稿では,長周期分布と雑音ラベルの両方を特徴とするデータ管理手法を提案する。
そこで我々は,半教師付き学習方式で擬似ラベルを生成するために,最適な輸送戦略を採用した。
論文 参考訳(メタデータ) (2024-08-07T14:15:18Z) - Stochastic Amortization: A Unified Approach to Accelerate Feature and Data Attribution [62.71425232332837]
雑音ラベル付きモデルを用いたトレーニングは安価で驚くほど効果的であることを示す。
このアプローチは、いくつかの特徴属性とデータ評価手法を著しく加速し、しばしば既存のアプローチよりも桁違いにスピードアップする。
論文 参考訳(メタデータ) (2024-01-29T03:42:37Z) - Learning to Abstain From Uninformative Data [20.132146513548843]
本研究では,一般的なノイズ発生過程下での学習と行動の問題について検討する。
この問題において、データ分布はラベルに高ノイズの非形式的なサンプルのかなりの割合を有する。
本稿では,選択学習理論に着想を得た損失を生かして,これらの条件下での学習に新たなアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-25T15:55:55Z) - Late Stopping: Avoiding Confidently Learning from Mislabeled Examples [61.00103151680946]
そこで本研究では,DNNの長期学習プロセスを通じて,本質的な頑健な学習能力を生かした新しいフレームワークであるLatlas Stoppingを提案する。
誤ラベルとクリーンな例は、それらが一貫して正しく分類されるために必要なエポックの数に相違があることを実証的に観察する。
ベンチマークシミュレーションと実世界のノイズデータセットによる実験結果から,提案手法は最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-26T12:43:25Z) - Co-Learning Meets Stitch-Up for Noisy Multi-label Visual Recognition [70.00984078351927]
本稿では,多ラベル分類と長期学習の特徴に基づく雑音の低減に焦点をあてる。
よりクリーンなサンプルを合成し,マルチラベルノイズを直接低減するStitch-Up拡張を提案する。
ヘテロジニアス・コラーニング・フレームワークは、長い尾の分布とバランスの取れた分布の不整合を活用するためにさらに設計されている。
論文 参考訳(メタデータ) (2023-07-03T09:20:28Z) - MILD: Modeling the Instance Learning Dynamics for Learning with Noisy
Labels [19.650299232829546]
クリーンなデータを特定するために,Weibull混合モデルに基づく反復的選択手法を提案する。
特に、誤分類と暗記の間の遷移時間を通じて、各インスタンスの暗記の難しさを測定し、暗記する。
我々の戦略は既存の雑音ラベル学習方法より優れている。
論文 参考訳(メタデータ) (2023-06-20T14:26:53Z) - Label-Noise Learning with Intrinsically Long-Tailed Data [65.41318436799993]
本稿では,本質的な長期データを用いたラベルノイズ学習のための学習フレームワークを提案する。
具体的には, 2段階の2次元試料選択法(TABASCO)を提案する。
論文 参考訳(メタデータ) (2022-08-21T07:47:05Z) - Robust Long-Tailed Learning under Label Noise [50.00837134041317]
本研究では,長期ラベル分布におけるラベルノイズ問題について検討する。
本稿では,長期学習のための雑音検出を実現する頑健なフレームワークAlgoを提案する。
我々のフレームワークは、半教師付き学習アルゴリズムを自然に活用して一般化をさらに改善することができる。
論文 参考訳(メタデータ) (2021-08-26T03:45:00Z) - Semi-supervised Long-tailed Recognition using Alternate Sampling [95.93760490301395]
ロングテール認識の主な課題は、データ分布の不均衡とテールクラスにおけるサンプル不足である。
半教師付き長尾認識という新しい認識設定を提案する。
2つのデータセットで、他の競合方法よりも大幅な精度向上を実証します。
論文 参考訳(メタデータ) (2021-05-01T00:43:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。