論文の概要: What Are Effective Labels for Augmented Data? Improving Calibration and
Robustness with AutoLabel
- arxiv url: http://arxiv.org/abs/2302.11188v1
- Date: Wed, 22 Feb 2023 07:44:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-23 16:10:37.197669
- Title: What Are Effective Labels for Augmented Data? Improving Calibration and
Robustness with AutoLabel
- Title(参考訳): 拡張データに有効なラベルは何か?
AutoLabelによるキャリブレーションとロバストネスの改善
- Authors: Yao Qin, Xuezhi Wang, Balaji Lakshminarayanan, Ed H. Chi and Alex
Beutel
- Abstract要約: 歪んだデータに対する1ホットラベルの再使用は、ノイズの追加や精度の劣化、校正のリスクを負う可能性がある。
そこで本研究では,ラベルの信頼度を自動的に学習する汎用手法であるAutoLabelを提案する。
私たちはAutoLabelを、最先端のRandAug、AugMix、敵のトレーニングという3つの異なるデータ拡張テクニックに適用することに成功しました。
- 参考スコア(独自算出の注目度): 25.90876543174631
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A wide breadth of research has devised data augmentation approaches that can
improve both accuracy and generalization performance for neural networks.
However, augmented data can end up being far from the clean training data and
what is the appropriate label is less clear. Despite this, most existing work
simply uses one-hot labels for augmented data. In this paper, we show re-using
one-hot labels for highly distorted data might run the risk of adding noise and
degrading accuracy and calibration. To mitigate this, we propose a generic
method AutoLabel to automatically learn the confidence in the labels for
augmented data, based on the transformation distance between the clean
distribution and augmented distribution. AutoLabel is built on label smoothing
and is guided by the calibration-performance over a hold-out validation set. We
successfully apply AutoLabel to three different data augmentation techniques:
the state-of-the-art RandAug, AugMix, and adversarial training. Experiments on
CIFAR-10, CIFAR-100 and ImageNet show that AutoLabel significantly improves
existing data augmentation techniques over models' calibration and accuracy,
especially under distributional shift.
- Abstract(参考訳): ニューラルネットワークの精度と一般化性能の両方を改善するために、幅広い研究がデータ拡張アプローチを考案した。
しかし、強化されたデータはクリーンなトレーニングデータから遠く離れており、適切なラベルは明らかになっていない。
それにもかかわらず、既存のほとんどの作業は、単に1ホットラベルを拡張データに使用しています。
本稿では,高歪みデータに対する1ホットラベルの再使用により,ノイズの追加や精度低下,校正のリスクが生じる可能性があることを示す。
これを軽減するために,クリーン分布と拡張分布の間の変換距離に基づいて,ラベルの信頼度を自動的に学習する汎用手法AutoLabelを提案する。
AutoLabelはラベルスムースに構築されており、キャリブレーション性能によって、ホールドアウト検証セット上でガイドされる。
私たちはAutoLabelを、最先端のRandAug、AugMix、敵のトレーニングという3つの異なるデータ拡張テクニックに適用することに成功しました。
CIFAR-10、CIFAR-100、ImageNetの実験では、AutoLabelはモデルのキャリブレーションや精度よりも既存のデータ拡張技術を大幅に改善している。
関連論文リスト
- Enhancing Zero-Shot Vision Models by Label-Free Prompt Distribution Learning and Bias Correcting [55.361337202198925]
CLIPのようなヴィジュアル言語モデルは、適切なテキスト記述を使用する際に、顕著な一般化能力を示している。
本稿では,ラベル付きデータを必要としないゼロショット性能を向上する,**Frolic**と呼ばれるラベルフリーな分布学習とバイアス補正フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-25T04:00:45Z) - You can't handle the (dirty) truth: Data-centric insights improve pseudo-labeling [60.27812493442062]
擬似ラベル法を改善するためにラベル付きデータ品質を調査することが重要であることを示す。
具体的には、擬似ラベルの拡張のために、DIPSと呼ばれる新しいデータキャラクタリゼーションと選択フレームワークを導入する。
本研究では,多種多様な実世界のデータセットを対象とした擬似ラベル手法に対するDIPSの適用性と影響を実証する。
論文 参考訳(メタデータ) (2024-06-19T17:58:40Z) - Retraining with Predicted Hard Labels Provably Increases Model Accuracy [77.71162068832108]
リトレーニングは、与えられた(ノイズの多い)ラベルで最初にトレーニングすることで得られる人口の精度を向上させることができる。
予測ラベルが与えられたラベルにマッチするサンプルを選択的にリトレーニングすることで、ラベルDP訓練が大幅に改善されることを実証的に示す。
論文 参考訳(メタデータ) (2024-06-17T04:53:47Z) - Pearls from Pebbles: Improved Confidence Functions for Auto-labeling [51.44986105969375]
しきい値に基づく自動ラベル付け(TBAL)は、上記のモデルの信頼度スコアのしきい値を見つけ、ラベルなしのデータポイントを正確にラベル付けすることで機能する。
本稿では,近位TBAL信頼度関数の研究のための枠組みを提案する。
本稿では,TBALシステムの性能を最大化するポストホック法を提案する。
論文 参考訳(メタデータ) (2024-04-24T20:22:48Z) - LABELMAKER: Automatic Semantic Label Generation from RGB-D Trajectories [59.14011485494713]
この研究は、完全に自動化された2D/3Dラベリングフレームワークを導入し、RGB-Dスキャンのラベルを同等(あるいはそれ以上)の精度で生成できる。
我々は、ScanNetデータセットのラベルを大幅に改善し、これまでラベル付けされていなかったARKitScenesデータセットを自動的にラベル付けすることで、LabelMakerパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2023-11-20T20:40:24Z) - Doubly Robust Self-Training [46.168395767948965]
本稿では,新しい半教師付きアルゴリズムである二重頑健な自己学習を導入する。
通常の自己学習ベースラインよりも2倍頑健な損失の優位性を実証する。
論文 参考訳(メタデータ) (2023-06-01T00:57:16Z) - All Points Matter: Entropy-Regularized Distribution Alignment for
Weakly-supervised 3D Segmentation [67.30502812804271]
擬似ラベルは、弱い教師付き3Dセグメンテーションタスクに広く使われており、学習に使えるのはスパース・グラウンド・トラス・ラベルのみである。
本稿では,生成した擬似ラベルを正規化し,擬似ラベルとモデル予測とのギャップを効果的に狭めるための新しい学習戦略を提案する。
論文 参考訳(メタデータ) (2023-05-25T08:19:31Z) - PseudoAugment: Learning to Use Unlabeled Data for Data Augmentation in
Point Clouds [40.965517164773864]
既存の拡張ポリシーは、ラベル付きデータのみを利用するように設計されている。
我々は、トレーニングデータを強化するために、ラベルなしのデータをデータ拡張に活用することを提案する。
我々はAutoPseudoAugmentという3次元検出のための人口ベースデータ拡張フレームワークを開発した。
論文 参考訳(メタデータ) (2022-10-24T17:45:49Z) - Semi-supervised Learning using Robust Loss [0.0]
手動ラベル付きデータと追加ラベル付きデータの両方を活用するための半教師付きトレーニング戦略を提案する。
既存の手法とは対照的に、自動ラベル付きデータに対してロバストな損失を適用し、不均一なデータ品質を補う。
提案手法は,画像分類におけるラベルの不均一な品質を補正することにより,モデル性能の向上を図っている。
論文 参考訳(メタデータ) (2022-03-03T05:34:32Z) - Automated Data Augmentations for Graph Classification [29.586994125536307]
データ拡張の中核は、ラベルを保存するデータ変換を設計することにある、と我々は主張する。
本稿では,グラフ分類のためのラベル不変拡張の計算を目的とした,新しい自動データ拡張手法であるGraphAugを提案する。
論文 参考訳(メタデータ) (2022-02-26T23:00:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。