論文の概要: What Are Effective Labels for Augmented Data? Improving Calibration and
Robustness with AutoLabel
- arxiv url: http://arxiv.org/abs/2302.11188v1
- Date: Wed, 22 Feb 2023 07:44:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-23 16:10:37.197669
- Title: What Are Effective Labels for Augmented Data? Improving Calibration and
Robustness with AutoLabel
- Title(参考訳): 拡張データに有効なラベルは何か?
AutoLabelによるキャリブレーションとロバストネスの改善
- Authors: Yao Qin, Xuezhi Wang, Balaji Lakshminarayanan, Ed H. Chi and Alex
Beutel
- Abstract要約: 歪んだデータに対する1ホットラベルの再使用は、ノイズの追加や精度の劣化、校正のリスクを負う可能性がある。
そこで本研究では,ラベルの信頼度を自動的に学習する汎用手法であるAutoLabelを提案する。
私たちはAutoLabelを、最先端のRandAug、AugMix、敵のトレーニングという3つの異なるデータ拡張テクニックに適用することに成功しました。
- 参考スコア(独自算出の注目度): 25.90876543174631
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A wide breadth of research has devised data augmentation approaches that can
improve both accuracy and generalization performance for neural networks.
However, augmented data can end up being far from the clean training data and
what is the appropriate label is less clear. Despite this, most existing work
simply uses one-hot labels for augmented data. In this paper, we show re-using
one-hot labels for highly distorted data might run the risk of adding noise and
degrading accuracy and calibration. To mitigate this, we propose a generic
method AutoLabel to automatically learn the confidence in the labels for
augmented data, based on the transformation distance between the clean
distribution and augmented distribution. AutoLabel is built on label smoothing
and is guided by the calibration-performance over a hold-out validation set. We
successfully apply AutoLabel to three different data augmentation techniques:
the state-of-the-art RandAug, AugMix, and adversarial training. Experiments on
CIFAR-10, CIFAR-100 and ImageNet show that AutoLabel significantly improves
existing data augmentation techniques over models' calibration and accuracy,
especially under distributional shift.
- Abstract(参考訳): ニューラルネットワークの精度と一般化性能の両方を改善するために、幅広い研究がデータ拡張アプローチを考案した。
しかし、強化されたデータはクリーンなトレーニングデータから遠く離れており、適切なラベルは明らかになっていない。
それにもかかわらず、既存のほとんどの作業は、単に1ホットラベルを拡張データに使用しています。
本稿では,高歪みデータに対する1ホットラベルの再使用により,ノイズの追加や精度低下,校正のリスクが生じる可能性があることを示す。
これを軽減するために,クリーン分布と拡張分布の間の変換距離に基づいて,ラベルの信頼度を自動的に学習する汎用手法AutoLabelを提案する。
AutoLabelはラベルスムースに構築されており、キャリブレーション性能によって、ホールドアウト検証セット上でガイドされる。
私たちはAutoLabelを、最先端のRandAug、AugMix、敵のトレーニングという3つの異なるデータ拡張テクニックに適用することに成功しました。
CIFAR-10、CIFAR-100、ImageNetの実験では、AutoLabelはモデルのキャリブレーションや精度よりも既存のデータ拡張技術を大幅に改善している。
関連論文リスト
- LABELMAKER: Automatic Semantic Label Generation from RGB-D Trajectories [59.14011485494713]
この研究は、完全に自動化された2D/3Dラベリングフレームワークを導入し、RGB-Dスキャンのラベルを同等(あるいはそれ以上)の精度で生成できる。
我々は、ScanNetデータセットのラベルを大幅に改善し、これまでラベル付けされていなかったARKitScenesデータセットを自動的にラベル付けすることで、LabelMakerパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2023-11-20T20:40:24Z) - FlatMatch: Bridging Labeled Data and Unlabeled Data with Cross-Sharpness
for Semi-Supervised Learning [73.13448439554497]
Semi-Supervised Learning (SSL) は、ラベル付きデータが極めて少ない豊富なラベル付きデータを活用する効果的な方法である。
ほとんどのSSLメソッドは、通常、異なるデータ変換間のインスタンス単位の一貫性に基づいている。
本研究では,2つのデータセット間の一貫した学習性能を確保するために,クロスシャープネス尺度を最小化するFlatMatchを提案する。
論文 参考訳(メタデータ) (2023-10-25T06:57:59Z) - Doubly Robust Self-Training [46.168395767948965]
本稿では,新しい半教師付きアルゴリズムである二重頑健な自己学習を導入する。
通常の自己学習ベースラインよりも2倍頑健な損失の優位性を実証する。
論文 参考訳(メタデータ) (2023-06-01T00:57:16Z) - All Points Matter: Entropy-Regularized Distribution Alignment for
Weakly-supervised 3D Segmentation [67.30502812804271]
擬似ラベルは、弱い教師付き3Dセグメンテーションタスクに広く使われており、学習に使えるのはスパース・グラウンド・トラス・ラベルのみである。
本稿では,生成した擬似ラベルを正規化し,擬似ラベルとモデル予測とのギャップを効果的に狭めるための新しい学習戦略を提案する。
論文 参考訳(メタデータ) (2023-05-25T08:19:31Z) - PseudoAugment: Learning to Use Unlabeled Data for Data Augmentation in
Point Clouds [40.965517164773864]
既存の拡張ポリシーは、ラベル付きデータのみを利用するように設計されている。
我々は、トレーニングデータを強化するために、ラベルなしのデータをデータ拡張に活用することを提案する。
我々はAutoPseudoAugmentという3次元検出のための人口ベースデータ拡張フレームワークを開発した。
論文 参考訳(メタデータ) (2022-10-24T17:45:49Z) - Semi-supervised Learning using Robust Loss [0.0]
手動ラベル付きデータと追加ラベル付きデータの両方を活用するための半教師付きトレーニング戦略を提案する。
既存の手法とは対照的に、自動ラベル付きデータに対してロバストな損失を適用し、不均一なデータ品質を補う。
提案手法は,画像分類におけるラベルの不均一な品質を補正することにより,モデル性能の向上を図っている。
論文 参考訳(メタデータ) (2022-03-03T05:34:32Z) - Automated Data Augmentations for Graph Classification [29.586994125536307]
データ拡張の中核は、ラベルを保存するデータ変換を設計することにある、と我々は主張する。
本稿では,グラフ分類のためのラベル不変拡張の計算を目的とした,新しい自動データ拡張手法であるGraphAugを提案する。
論文 参考訳(メタデータ) (2022-02-26T23:00:34Z) - Cross-Model Pseudo-Labeling for Semi-Supervised Action Recognition [98.25592165484737]
CMPL(Cross-Model Pseudo-Labeling)と呼ばれる,より効果的な擬似ラベル方式を提案する。
CMPLは、それぞれRGBモダリティとラベル付きデータのみを使用して、Kinetics-400とUCF-101のTop-1の精度を17.6%と25.1%で達成している。
論文 参考訳(メタデータ) (2021-12-17T18:59:41Z) - Boosting Semi-Supervised Face Recognition with Noise Robustness [54.342992887966616]
本稿では,自動ラベルによるラベル雑音に対して頑健な半教師付き顔認識に対する効果的な解法を提案する。
そこで我々は,gnが強化するロバストな学習能力に基づく,ノイズロバスト学習ラベリング(nroll)という,半教師付き顔認識ソリューションを開発した。
論文 参考訳(メタデータ) (2021-05-10T14:43:11Z) - Learning to Purify Noisy Labels via Meta Soft Label Corrector [49.92310583232323]
最近のディープニューラルネットワーク(DNN)は、ノイズラベルによるバイアス付きトレーニングデータに容易に適合する。
ラベル修正戦略はこの問題を軽減するために一般的に用いられる。
メタ学習モデルを提案する。
論文 参考訳(メタデータ) (2020-08-03T03:25:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。