論文の概要: Using Early-Learning Regularization to Classify Real-World Noisy Data
- arxiv url: http://arxiv.org/abs/2105.13244v1
- Date: Thu, 27 May 2021 15:41:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-28 16:18:42.077577
- Title: Using Early-Learning Regularization to Classify Real-World Noisy Data
- Title(参考訳): 早期学習の正規化による実世界の雑音データ分類
- Authors: Alessio Galatolo, Alfred Nilsson, Roderick Karlemstrand, Yineng Wang
- Abstract要約: 本稿では,ラベルノイズが存在する場合のCIFARデータセットの精度を向上させる早期学習規則化手法を提案する。
このプロジェクトは実験を再現し、本質的なノイズを伴う実世界のデータセットのパフォーマンスを調査する。
今後の作業には、600万の画像すべてを使用し、手動で画像のごく一部をクリーニングして、転写学習モデルを微調整することが含まれる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The memorization problem is well-known in the field of computer vision. Liu
et al. propose a technique called Early-Learning Regularization, which improves
accuracy on the CIFAR datasets when label noise is present. This project
replicates their experiments and investigates the performance on a real-world
dataset with intrinsic noise. Results show that their experimental results are
consistent. We also explore Sharpness-Aware Minimization in addition to SGD and
observed a further 14.6 percentage points improvement. Future work includes
using all 6 million images and manually clean a fraction of the images to
fine-tune a transfer learning model. Last but not the least, having access to
clean data for testing would also improve the measurement of accuracy.
- Abstract(参考訳): 記憶問題はコンピュータビジョンの分野でよく知られている。
liu et alの略。
ラベルノイズ発生時のCIFARデータセットの精度を向上させる早期学習規則化手法を提案する。
このプロジェクトは実験を再現し、本質的なノイズを伴う実世界のデータセットのパフォーマンスを調査する。
その結果,実験結果が一致した。
また、sgdに加えてシャープネス対応の最小化も検討し、さらに14.6ポイント改善が見られた。
今後の作業には、600万の画像すべてを使用し、手動で画像の一部をクリーニングして、転写学習モデルを微調整することが含まれる。
最後に、テストのためにクリーンなデータにアクセスすることで、精度の測定も向上します。
関連論文リスト
- Keypoint Aware Masked Image Modelling [0.34530027457862006]
KAMIMは16.12%から33.97%に改善され、ImageNet-1Kデータセットで同じ数のエポックでトレーニングされた際には76.78%から77.3%まで微調整精度が向上した。
また,KAMIMを用いて訓練したViT-Bの学習表現を解析し,その行動に関する対照的な学習と同様の行動を示す。
論文 参考訳(メタデータ) (2024-07-18T19:41:46Z) - Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - An Empirical Study of Automated Mislabel Detection in Real World Vision
Datasets [3.123276402480922]
実世界のデータセットにラベルのずれのあるイメージを効果的に実装するための戦略を開発する。
アプローチを慎重に設計すると、クラス毎のパフォーマンスが最大8%向上する。
論文 参考訳(メタデータ) (2023-12-02T19:33:42Z) - Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z) - Student Classroom Behavior Detection based on Improved YOLOv7 [3.6119958671506707]
改良型YOLOv7に基づく授業行動検出手法を提案する。
まず、学生教室行動データセット(SCB-Dataset)を作成し、18.4kラベルと4.2kイメージを含む。
混み合ったシーンにおける検出精度を向上させるために,バイフォーマーアテンションモジュールとWise-IoUをYOLOv7ネットワークに統合した。
実験はSCB-Datasetで行われ、モデルがmAP@0.5の79%を達成し、その結果、以前の結果よりも1.8%改善した。
論文 参考訳(メタデータ) (2023-06-06T00:01:40Z) - Boosting Facial Expression Recognition by A Semi-Supervised Progressive
Teacher [54.50747989860957]
本稿では,信頼度の高いFERデータセットと大規模未ラベル表現画像を有効訓練に用いるための半教師付き学習アルゴリズム,Progressive Teacher (PT)を提案する。
RAF-DB と FERPlus を用いた実験により,RAF-DB で89.57% の精度で最先端の性能を実現する手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-05-28T07:47:53Z) - To be Critical: Self-Calibrated Weakly Supervised Learning for Salient
Object Detection [95.21700830273221]
弱教師付き有色物体検出(WSOD)は,画像レベルのアノテーションを用いた有色度モデルの開発を目的としている。
擬似ラベルとネットワーク予測の相互校正ループを明確に設定し,自己校正学習戦略を提案する。
十分に整合したアノテーションを持つはるかに小さなデータセットであっても、モデルがより優れたパフォーマンスと一般化性を達成するのに役立ちます。
論文 参考訳(メタデータ) (2021-09-04T02:45:22Z) - Investigating a Baseline Of Self Supervised Learning Towards Reducing
Labeling Costs For Image Classification [0.0]
この研究は、Kaggle.comの cat-vs-dogs データセット Mnist と Fashion-Mnist を実装し、自己教師型学習タスクを調査している。
その結果、自己教師型学習におけるプレテキスト処理は、下流分類タスクの約15%の精度を向上させることがわかった。
論文 参考訳(メタデータ) (2021-08-17T06:43:05Z) - With a Little Help from My Friends: Nearest-Neighbor Contrastive
Learning of Visual Representations [87.72779294717267]
対比損失で最も近い隣り合わせを正として使用すると、ImageNet分類でパフォーマンスが大幅に向上します。
提案手法が複雑なデータ拡張に依存しないことを実証的に証明する。
論文 参考訳(メタデータ) (2021-04-29T17:56:08Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。