論文の概要: A Framework using Contrastive Learning for Classification with Noisy
Labels
- arxiv url: http://arxiv.org/abs/2104.09563v1
- Date: Mon, 19 Apr 2021 18:51:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-22 04:48:26.846116
- Title: A Framework using Contrastive Learning for Classification with Noisy
Labels
- Title(参考訳): 雑音ラベルを用いた分類のためのコントラスト学習フレームワーク
- Authors: Madalina Ciortan, Romain Dupuis, Thomas Peel
- Abstract要約: 雑音ラベルの存在下で画像分類を行うために,コントラスト学習を事前学習タスクとして利用するフレームワークを提案する。
擬似ラベル, ガウス混合モデルを用いたサンプル選択, 重み付き教師付きコントラスト学習などの近年の戦略は, 事前学習後の微調整相に組み合わされている。
- 参考スコア(独自算出の注目度): 1.2891210250935146
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a framework using contrastive learning as a pre-training task to
perform image classification in the presence of noisy labels. Recent strategies
such as pseudo-labeling, sample selection with Gaussian Mixture models,
weighted supervised contrastive learning have been combined into a fine-tuning
phase following the pre-training. This paper provides an extensive empirical
study showing that a preliminary contrastive learning step brings a significant
gain in performance when using different loss functions: non-robust, robust,
and early-learning regularized. Our experiments performed on standard
benchmarks and real-world datasets demonstrate that: i) the contrastive
pre-training increases the robustness of any loss function to noisy labels and
ii) the additional fine-tuning phase can further improve accuracy but at the
cost of additional complexity.
- Abstract(参考訳): 雑音ラベルの存在下で画像分類を行うための事前学習課題としてコントラスト学習を用いたフレームワークを提案する。
擬似ラベル, ガウス混合モデルを用いたサンプル選択, 重み付き教師付きコントラスト学習などの近年の戦略は, 事前学習後の微調整相に組み合わされている。
本稿では,非ロバスト,ロバスト,ロバスト,早期学習といった異なる損失関数を用いた場合,予備的なコントラスト学習ステップは,高い性能向上をもたらすことを示した。
基準ベンチマークと実世界のデータセットを用いて行った実験では, 対照的な事前学習は損失関数の強靭性をノイズラベルに高め, 追加の微調整フェーズは精度をさらに向上させるが, 追加の複雑さを犠牲にすることができることを示した。
関連論文リスト
- Learning with Imbalanced Noisy Data by Preventing Bias in Sample
Selection [82.43311784594384]
実世界のデータセットには、ノイズの多いラベルだけでなく、クラス不均衡も含まれている。
不均衡なデータセットにおけるノイズラベルに対処する,単純かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-02-17T10:34:53Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Late Stopping: Avoiding Confidently Learning from Mislabeled Examples [61.00103151680946]
そこで本研究では,DNNの長期学習プロセスを通じて,本質的な頑健な学習能力を生かした新しいフレームワークであるLatlas Stoppingを提案する。
誤ラベルとクリーンな例は、それらが一貫して正しく分類されるために必要なエポックの数に相違があることを実証的に観察する。
ベンチマークシミュレーションと実世界のノイズデータセットによる実験結果から,提案手法は最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-26T12:43:25Z) - SoftMatch: Addressing the Quantity-Quality Trade-off in Semi-supervised
Learning [101.86916775218403]
本稿では, サンプル重み付けを統一した定式化により, 一般的な擬似ラベル法を再検討する。
トレーニング中の擬似ラベルの量と質を両立させることでトレードオフを克服するSoftMatchを提案する。
実験では、画像、テキスト、不均衡な分類など、さまざまなベンチマークで大幅に改善されている。
論文 参考訳(メタデータ) (2023-01-26T03:53:25Z) - Complementary Labels Learning with Augmented Classes [22.460256396941528]
補完ラベル学習 (Complementary Labels Learning, CLL) は、プライベート質問分類やオンライン学習など、現実世界の多くのタスクに現れる。
CLLAC(Complementary Labels Learning with Augmented Classs)と呼ばれる新しい問題設定を提案する。
ラベルのないデータを用いて,CLLACの分類リスクの偏りのない推定手法を提案する。
論文 参考訳(メタデータ) (2022-11-19T13:55:27Z) - Label Noise-Robust Learning using a Confidence-Based Sieving Strategy [15.997774467236352]
ラベルノイズを伴うタスクの学習では、オーバーフィッティングに対するモデルの堅牢性を改善することが重要な課題である。
サンプルをノイズのあるラベルで識別し、モデルを学習するのを防ぐことは、この課題に対処するための有望なアプローチである。
本研究では, 信頼度誤差と呼ばれる新しい判別基準と, クリーンサンプルとノイズサンプルを効果的に識別するためのCONFESと呼ばれるシービング戦略を提案する。
論文 参考訳(メタデータ) (2022-10-11T10:47:28Z) - Mixing Up Contrastive Learning: Self-Supervised Representation Learning
for Time Series [22.376529167056376]
ラベルスムーシングの観点から,教師なしのコントラスト学習フレームワークを提案する。
提案手法は、データ拡張スキームを自然に活用する、新しい対照的な損失を用いる。
実験は、他の表現学習アプローチと比較して、フレームワークのパフォーマンスが優れていることを示す。
論文 参考訳(メタデータ) (2022-03-17T11:49:21Z) - Contrastive Regularization for Semi-Supervised Learning [46.020125061295886]
そこで本稿では, ラベルのないデータの特徴量により, 整合正則化の効率性と精度を両立させるために, 対照的な正則化を提案する。
また,提案手法は,ラベルなしデータに分布しないサンプルを含むオープンセット半教師付き学習において,頑健な性能を示す。
論文 参考訳(メタデータ) (2022-01-17T07:20:11Z) - Consistency Regularization Can Improve Robustness to Label Noise [4.340338299803562]
本稿では,雑音ラベルに対するトレーニング時ロバスト性に対する整合正則化の関連性について実験的に検討する。
整合性を促進する単純な損失関数は、ノイズをラベル付けするためのモデルの堅牢性を改善する。
論文 参考訳(メタデータ) (2021-10-04T08:15:08Z) - Meta Transition Adaptation for Robust Deep Learning with Noisy Labels [61.8970957519509]
本研究では,新しいメタ遷移学習戦略を提案する。
具体的には、クリーンなラベル付きメタデータの小さなセットのサウンドガイダンスにより、ノイズ遷移行列と分類器パラメータを相互に改善することができる。
本手法は, 従来技術よりも頑健な性能で, 遷移行列をより正確に抽出することができる。
論文 参考訳(メタデータ) (2020-06-10T07:27:25Z) - Learning Not to Learn in the Presence of Noisy Labels [104.7655376309784]
ギャンブラーの損失と呼ばれる新しい種類の損失関数は、様々なレベルの汚職にまたがってノイズをラベル付けするのに強い堅牢性をもたらすことを示す。
この損失関数によるトレーニングは、ノイズのあるラベルを持つデータポイントでの学習を"維持"することをモデルに促すことを示す。
論文 参考訳(メタデータ) (2020-02-16T09:12:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。