論文の概要: Catastrophic Overfitting: A Potential Blessing in Disguise
- arxiv url: http://arxiv.org/abs/2402.18211v1
- Date: Wed, 28 Feb 2024 10:01:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 15:23:17.675715
- Title: Catastrophic Overfitting: A Potential Blessing in Disguise
- Title(参考訳): 破滅的な過剰フィッティング:偽装による潜在的祝福
- Authors: Mengnan Zhao, Lihe Zhang, Yuqiu Kong, Baocai Yin
- Abstract要約: FAT(Fast Adversarial Training)は、敵の堅牢性向上に効果があるとして、研究コミュニティ内で注目を集めている。
既存のFATアプローチではCOの緩和が進んでいるが, クリーンサンプルの分類精度が低下するにつれて, 対向ロバスト性の上昇が生じる。
クリーンな例と逆向きな例に特徴アクティベーションの相違を利用して,COの根本原因を分析した。
我々は, モデル性能を高めることを目的として, 「攻撃難読化」を実現するためにCOを活用する。
- 参考スコア(独自算出の注目度): 51.996943482875366
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fast Adversarial Training (FAT) has gained increasing attention within the
research community owing to its efficacy in improving adversarial robustness.
Particularly noteworthy is the challenge posed by catastrophic overfitting (CO)
in this field. Although existing FAT approaches have made strides in mitigating
CO, the ascent of adversarial robustness occurs with a non-negligible decline
in classification accuracy on clean samples. To tackle this issue, we initially
employ the feature activation differences between clean and adversarial
examples to analyze the underlying causes of CO. Intriguingly, our findings
reveal that CO can be attributed to the feature coverage induced by a few
specific pathways. By intentionally manipulating feature activation differences
in these pathways with well-designed regularization terms, we can effectively
mitigate and induce CO, providing further evidence for this observation.
Notably, models trained stably with these terms exhibit superior performance
compared to prior FAT work. On this basis, we harness CO to achieve `attack
obfuscation', aiming to bolster model performance. Consequently, the models
suffering from CO can attain optimal classification accuracy on both clean and
adversarial data when adding random noise to inputs during evaluation. We also
validate their robustness against transferred adversarial examples and the
necessity of inducing CO to improve robustness. Hence, CO may not be a problem
that has to be solved.
- Abstract(参考訳): FAT(Fast Adversarial Training)は、敵の堅牢性向上に効果があるとして、研究コミュニティ内で注目を集めている。
特に注目すべきは、この分野における破滅的なオーバーフィッティング(CO)による課題である。
既存のFATアプローチではCOの緩和が進んでいるが, クリーンサンプルの分類精度が低下するにつれて, 対向ロバスト性の上昇が生じる。
この問題に対処するため,我々はまず,coの根底にある原因を分析するために,クリーン例と敵例のアクティベーションの差異を用いる。
興味深いことに、COはいくつかの特定の経路によって引き起こされる特徴カバレッジに起因することが判明した。
これらの経路の活性化差を適切に設計された正規化項で意図的に操作することにより、COを効果的に緩和し誘導し、この観察のさらなる証拠を与えることができる。
特に、これらの用語で安定的に訓練されたモデルは、以前のFATよりも優れた性能を示す。
そこで本研究では,coをモデル性能の向上を目的とした「攻撃難読化」に活用する。
これにより、評価中に入力にランダムノイズを加える際に、クリーンデータと逆データの両方に対して最適な分類精度が得られる。
また, 移動した敵の例に対する頑健性と, 強靭性を改善するためにCOを誘導する必要性についても検証した。
したがって、COは解決すべき問題ではないかもしれない。
関連論文リスト
- Extreme Miscalibration and the Illusion of Adversarial Robustness [70.24478307317523]
敵の訓練は、しばしばモデルの堅牢性を高めるために使用される。
我々は、この観測されたロバストネスの利得はロバストネスの錯覚(IOR)であることを示した。
我々は,NLPコミュニティに対して,試験時間温度のスケーリングを堅牢性評価に組み込むよう促す。
論文 参考訳(メタデータ) (2024-02-27T13:49:12Z) - CARSO: Blending Adversarial Training and Purification Improves
Adversarial Robustness [1.3812010983144802]
CARSOは画像分類のための新しい対角防御機構である。
敵の訓練と敵の浄化のパラダイムをブレンドする。
予兆や予期せぬ脅威から身を守ることができる。
論文 参考訳(メタデータ) (2023-05-25T09:04:31Z) - Improving Covariance Conditioning of the SVD Meta-layer by Orthogonality [65.67315418971688]
最寄り直交勾配(NOG)と最適学習率(OLR)を提案する。
視覚認識実験は,共分散条件と一般化を同時に改善できることを実証した。
論文 参考訳(メタデータ) (2022-07-05T15:39:29Z) - Catastrophic overfitting can be induced with discriminative non-robust
features [95.07189577345059]
自然画像の典型的データセットの制御による一段階AT法におけるCOの開始について検討した。
本研究は, 一見無害な画像の注入により, 従来よりはるかに小さいエプシロン$値でCOを誘導できることを示唆する。
論文 参考訳(メタデータ) (2022-06-16T15:22:39Z) - Exploiting the Relationship Between Kendall's Rank Correlation and
Cosine Similarity for Attribution Protection [21.341303776931532]
まず、期待されるケンドールのランク相関がコサイン類似性と正に相関していることを示し、帰属方向が帰属ロバスト性の鍵であることを示す。
解析の結果,IGRは自然試料とそれに対応する摂動標本に対して,同じ活性化状態のニューロンを刺激することが明らかとなった。
論文 参考訳(メタデータ) (2022-05-15T13:08:50Z) - Undersmoothing Causal Estimators with Generative Trees [0.0]
観察データから個別に治療効果を推定することで、標的となる介入の可能性を解き放つことができる。
しかし、観測データからこれらの効果を推測することは困難である。
本稿では,モデルの不特定に対処する新しい生成木に基づくアプローチについて検討する。
論文 参考訳(メタデータ) (2022-03-16T11:59:38Z) - Robustness and Accuracy Could Be Reconcilable by (Proper) Definition [109.62614226793833]
強靭性と精度のトレードオフは、敵文学において広く研究されている。
局所的不変性の帰納的バイアスを課す不適切に定義された頑健な誤差に由来する可能性がある。
定義上、SCOREは、最悪のケースの不確実性に対処しながら、堅牢性と正確性の間の和解を促進する。
論文 参考訳(メタデータ) (2022-02-21T10:36:09Z) - Robust Pre-Training by Adversarial Contrastive Learning [120.33706897927391]
近年の研究では、敵の訓練と統合されると、自己監督型事前訓練が最先端の堅牢性につながることが示されている。
我々は,データ強化と対向的摂動の両面に整合した学習表現により,ロバストネスを意識した自己指導型事前学習を改善する。
論文 参考訳(メタデータ) (2020-10-26T04:44:43Z) - Blind Adversarial Pruning: Balance Accuracy, Efficiency and Robustness [3.039568795810294]
本稿では, 段階的プルーニング過程において, 圧縮比が異なるプルーニングモデルのロバスト性について検討する。
次に、クリーンなデータと逆の例を段階的なプルーニングプロセスに混合する性能を検証し、逆プルーニング(英語版)と呼ぶ。
AERのバランスを改善するために,視覚的対位法(BAP)というアプローチを提案し,段階的対位法に視覚的対位法を取り入れた。
論文 参考訳(メタデータ) (2020-04-10T02:27:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。