論文の概要: NoisyMix: Boosting Robustness by Combining Data Augmentations, Stability
Training, and Noise Injections
- arxiv url: http://arxiv.org/abs/2202.01263v1
- Date: Wed, 2 Feb 2022 19:53:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-04 13:30:04.069844
- Title: NoisyMix: Boosting Robustness by Combining Data Augmentations, Stability
Training, and Noise Injections
- Title(参考訳): NoisyMix: データ強化, 安定トレーニング, ノイズ注入を組み合わせたロバスト性向上
- Authors: N. Benjamin Erichson, Soon Hoe Lim, Francisco Utrera, Winnie Xu, Ziang
Cao, Michael W. Mahoney
- Abstract要約: モデルロバスト性とドメイン内精度の両方を改善するために,データ拡張と安定性トレーニングとノイズ注入を組み合わせたトレーニングスキームであるNoisyMixを導入する。
我々は、ImageNet-C、ImageNet-R、ImageNet-Pなど、さまざまなベンチマークデータセットに対して、NoisyMixの利点を実証する。
- 参考スコア(独自算出の注目度): 46.745755900939216
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For many real-world applications, obtaining stable and robust statistical
performance is more important than simply achieving state-of-the-art predictive
test accuracy, and thus robustness of neural networks is an increasingly
important topic. Relatedly, data augmentation schemes have been shown to
improve robustness with respect to input perturbations and domain shifts.
Motivated by this, we introduce NoisyMix, a training scheme that combines data
augmentations with stability training and noise injections to improve both
model robustness and in-domain accuracy. This combination promotes models that
are consistently more robust and that provide well-calibrated estimates of
class membership probabilities. We demonstrate the benefits of NoisyMix on a
range of benchmark datasets, including ImageNet-C, ImageNet-R, and ImageNet-P.
Moreover, we provide theory to understand implicit regularization and
robustness of NoisyMix.
- Abstract(参考訳): 多くの実世界のアプリケーションにとって、安定的で堅牢な統計性能を得るためには、単に最先端の予測テストの精度を達成することよりも重要である。
関連して、データ拡張スキームは、入力の摂動とドメインシフトに関してロバスト性を改善することが示されている。
モデルロバスト性とドメイン内精度の両方を改善するために,データ拡張と安定性トレーニングとノイズ注入を組み合わせたトレーニングスキームであるNoisyMixを導入する。
この組み合わせは、一貫したより堅牢なモデルを促進し、クラスメンバーシップ確率のよく校正された推定を提供する。
我々は、ImageNet-C、ImageNet-R、ImageNet-Pなどのベンチマークデータセットに対して、NoisyMixの利点を実証する。
さらに、我々は、NoisyMixの暗黙の正規化とロバスト性を理解する理論を提供する。
関連論文リスト
- Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - Data-Driven Lipschitz Continuity: A Cost-Effective Approach to Improve Adversarial Robustness [47.9744734181236]
我々は、ディープニューラルネットワーク(DNN)の敵攻撃に対する堅牢性を証明するために、リプシッツ連続性の概念を探求する。
本稿では,入力領域を制約範囲に再マップし,リプシッツ定数を低減し,ロバスト性を高める新しいアルゴリズムを提案する。
本手法は,ロバストベンチリーダーボード上のCIFAR10,CIFAR100,ImageNetデータセットに対して,最も堅牢な精度を実現する。
論文 参考訳(メタデータ) (2024-06-28T03:10:36Z) - The Risk of Federated Learning to Skew Fine-Tuning Features and
Underperform Out-of-Distribution Robustness [50.52507648690234]
フェデレートされた学習は、微調整された特徴をスキイングし、モデルの堅牢性を損なうリスクがある。
3つのロバスト性指標を導入し、多様なロバストデータセットで実験を行う。
提案手法は,パラメータ効率のよい微調整手法を含む多種多様なシナリオにまたがるロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2024-01-25T09:18:51Z) - IPMix: Label-Preserving Data Augmentation Method for Training Robust
Classifiers [4.002089584222719]
クリーンな精度を損なうことなくロバスト性を改善するための単純なデータ拡張手法であるIMMixを提案する。
IPMixは、トレーニングデータの多様性を高めるために、3つのレベルのデータ拡張をコヒーレントでラベル保存のテクニックに統合する。
実験により、IMMixはCIFAR-CとImageNet-Cで最先端の破損堅牢性を上回っていることが示された。
論文 参考訳(メタデータ) (2023-10-07T11:45:33Z) - MAPS: A Noise-Robust Progressive Learning Approach for Source-Free
Domain Adaptive Keypoint Detection [76.97324120775475]
クロスドメインキーポイント検出方法は、常に適応中にソースデータにアクセスする必要がある。
本稿では、ターゲット領域に十分に訓練されたソースモデルのみを提供する、ソースフリーなドメイン適応キーポイント検出について考察する。
論文 参考訳(メタデータ) (2023-02-09T12:06:08Z) - AugRmixAT: A Data Processing and Training Method for Improving Multiple
Robustness and Generalization Performance [10.245536402327096]
ディープニューラルネットワークモデルの具体的な堅牢性を改善するために、これまでの多くの研究が提案されている。
本稿では,ニューラルネットワークモデルの一般化能力とマルチロバスト性を同時に向上する,AugRmixATと呼ばれる新しいデータ処理とトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T04:02:24Z) - Certified Adversarial Defenses Meet Out-of-Distribution Corruptions:
Benchmarking Robustness and Simple Baselines [65.0803400763215]
この研究は、最先端のロバストモデルがアウト・オブ・ディストリビューションデータに遭遇した場合、敵のロバスト性がどのように変化を保証しているかを批判的に検証する。
本稿では,トレーニングデータのスペクトルカバレッジを改善するために,新たなデータ拡張方式であるFourierMixを提案する。
また,FourierMixの拡張により,様々なOODベンチマークにおいて,より優れたロバスト性保証を実現することが可能となる。
論文 参考訳(メタデータ) (2021-12-01T17:11:22Z) - Noisy Recurrent Neural Networks [45.94390701863504]
入力データによって駆動される微分方程式の離散化として,隠れ状態に雑音を注入することによって訓練されたリカレントニューラルネットワーク(RNN)について検討する。
合理的な仮定の下では、この暗黙の正則化はより平坦なミニマムを促進し、より安定な力学を持つモデルに偏りを呈し、分類タスクではより大きな分類マージンを持つモデルを好む。
本理論は, 各種入力摂動に対するロバスト性の向上と, 最先端性能の維持を両立させる実証実験により支持された。
論文 参考訳(メタデータ) (2021-02-09T15:20:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。