論文の概要: Generalization by Recognizing Confusion
- arxiv url: http://arxiv.org/abs/2006.07737v1
- Date: Sat, 13 Jun 2020 22:49:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 20:51:46.233215
- Title: Generalization by Recognizing Confusion
- Title(参考訳): 融合認識による一般化
- Authors: Daniel Chiu, Franklyn Wang, Scott Duke Kominers
- Abstract要約: 自己適応型トレーニング技術は、トレーニングラベルをオンザフライで調整することで、現代のニューラルネットワークを強化する。
自己適応目標とミキシングアップを組み合わせることで、画像認識のための自己適応モデルの精度をさらに向上する。
これらのアルゴリズムのラデマチャー複雑性は低く、証明可能な一般化への新たな道のりが示唆されている。
- 参考スコア(独自算出の注目度): 3.018691733760647
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A recently-proposed technique called self-adaptive training augments modern
neural networks by allowing them to adjust training labels on the fly, to avoid
overfitting to samples that may be mislabeled or otherwise non-representative.
By combining the self-adaptive objective with mixup, we further improve the
accuracy of self-adaptive models for image recognition; the resulting
classifier obtains state-of-the-art accuracies on datasets corrupted with label
noise. Robustness to label noise implies a lower generalization gap; thus, our
approach also leads to improved generalizability. We find evidence that the
Rademacher complexity of these algorithms is low, suggesting a new path towards
provable generalization for this type of deep learning model. Last, we
highlight a novel connection between difficulties accounting for rare classes
and robustness under noise, as rare classes are in a sense indistinguishable
from label noise. Our code can be found at
https://github.com/Tuxianeer/generalizationconfusion.
- Abstract(参考訳): 最近提案されたセルフアダプティブトレーニング(セルフアダプティブトレーニング)と呼ばれるテクニックは、現代のニューラルネットワークを拡張して、トレーニングラベルをオンザフライで調整する。
自己適応目的とミックスアップを組み合わせることで、画像認識のための自己適応モデルの精度をさらに向上し、ラベルノイズで劣化したデータセットに対する最先端の精度を得る。
ラベルノイズに対するロバスト性は、一般化のギャップが低いことを意味するため、我々のアプローチは一般化性の向上にも繋がる。
これらのアルゴリズムのRademacher複雑性は低く、この種のディープラーニングモデルの証明可能な一般化への新たな道のりが示唆されている。
最後に,レアクラスはラベルノイズとは区別がつかない意味で,レアクラスとノイズ下のロバスト性との間に新たな関連性があることを強調する。
私たちのコードはhttps://github.com/tuxianeer/generalizationconfusionにあります。
関連論文リスト
- ERASE: Error-Resilient Representation Learning on Graphs for Label Noise
Tolerance [53.73316938815873]
本稿では, ERASE (Error-Resilient representation learning on graphs for lAbel noiSe tolerancE) という手法を提案する。
ERASEは、プロトタイプの擬似ラベルとプロパゲーションされた識別ラベルを組み合わせて、表現をエラーレジリエンスで更新する。
提案手法は, 広い雑音レベルにおいて, 複数のベースラインをクリアマージンで上回り, 高いスケーラビリティを享受できる。
論文 参考訳(メタデータ) (2023-12-13T17:59:07Z) - Label Noise: Correcting the Forward-Correction [0.0]
ラベルノイズのあるデータセット上でニューラルネットワーク分類器を訓練することは、ノイズのあるラベルに過度に適合するリスクをもたらす。
ラベルノイズによる過度適合に対処する手法を提案する。
本研究は, オーバーフィッティングを緩和するために, トレーニング損失に低い限界を課すことを提案する。
論文 参考訳(メタデータ) (2023-07-24T19:41:19Z) - Learning with Noisy labels via Self-supervised Adversarial Noisy Masking [33.87292143223425]
対向雑音マスキングと呼ばれる新しいトレーニング手法を提案する。
入力データとラベルを同時に調整し、ノイズの多いサンプルが過度に収まらないようにする。
合成および実世界のノイズデータセットの両方でテストされる。
論文 参考訳(メタデータ) (2023-02-14T03:13:26Z) - Robust Training under Label Noise by Over-parameterization [41.03008228953627]
本稿では,トレーニングラベルの比率が低下した分類タスクにおいて,過パラメータ化深層ネットワークの堅牢なトレーニングを行うための原則的手法を提案する。
ラベルノイズはクリーンデータから学んだネットワークと疎結合なので、ノイズをモデル化してデータから分離することを学びます。
注目すべきは、このような単純な手法を用いて訓練を行う場合、様々な実データに対してラベルノイズに対する最先端のテスト精度を示すことである。
論文 参考訳(メタデータ) (2022-02-28T18:50:10Z) - Learning with Neighbor Consistency for Noisy Labels [69.83857578836769]
特徴空間におけるトレーニング例間の類似性を利用した雑音ラベルから学習する手法を提案する。
合成(CIFAR-10, CIFAR-100)とリアル(mini-WebVision, Clothing1M, mini-ImageNet-Red)の両方のノイズを評価するデータセットの評価を行った。
論文 参考訳(メタデータ) (2022-02-04T15:46:27Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Robust Long-Tailed Learning under Label Noise [50.00837134041317]
本研究では,長期ラベル分布におけるラベルノイズ問題について検討する。
本稿では,長期学習のための雑音検出を実現する頑健なフレームワークAlgoを提案する。
我々のフレームワークは、半教師付き学習アルゴリズムを自然に活用して一般化をさらに改善することができる。
論文 参考訳(メタデータ) (2021-08-26T03:45:00Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - Improving Generalization of Deep Fault Detection Models in the Presence
of Mislabeled Data [1.3535770763481902]
ラベルノイズを用いた頑健なトレーニングのための新しい2段階フレームワークを提案する。
最初のステップでは、仮説空間の更新に基づいて、外れ値(ラベルのつかないサンプルを含む)を識別する。
第2のステップでは、識別されたアウトレイラとデータ拡張技術に基づいて、トレーニングデータを修正するための異なるアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-30T12:33:25Z) - Consistency Regularization for Certified Robustness of Smoothed
Classifiers [89.72878906950208]
最近のランダムな平滑化技術は、最悪の$ell$-robustnessを平均ケースのロバストネスに変換することができることを示している。
その結果,スムーズな分類器の精度と信頼性の高いロバスト性とのトレードオフは,ノイズに対する予測一貫性の規則化によって大きく制御できることが判明した。
論文 参考訳(メタデータ) (2020-06-07T06:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。