論文の概要: Label Smoothing and Adversarial Robustness
- arxiv url: http://arxiv.org/abs/2009.08233v1
- Date: Thu, 17 Sep 2020 12:36:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 11:36:59.811739
- Title: Label Smoothing and Adversarial Robustness
- Title(参考訳): ラベル平滑化と逆ロバスト性
- Authors: Chaohao Fu, Hongbin Chen, Na Ruan, Weijia Jia
- Abstract要約: ラベルの平滑化によるトレーニングモデルは、ほとんどのグラデーションベースアタックにおいて、容易に顕著な精度を達成できることがわかった。
本研究は,研究コミュニティに対して,モデルの堅牢性を適切に評価する方法を再考するものである。
- 参考スコア(独自算出の注目度): 16.804200102767208
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies indicate that current adversarial attack methods are flawed
and easy to fail when encountering some deliberately designed defense.
Sometimes even a slight modification in the model details will invalidate the
attack. We find that training model with label smoothing can easily achieve
striking accuracy under most gradient-based attacks. For instance, the robust
accuracy of a WideResNet model trained with label smoothing on CIFAR-10
achieves 75% at most under PGD attack. To understand the reason underlying the
subtle robustness, we investigate the relationship between label smoothing and
adversarial robustness. Through theoretical analysis about the characteristics
of the network trained with label smoothing and experiment verification of its
performance under various attacks. We demonstrate that the robustness produced
by label smoothing is incomplete based on the fact that its defense effect is
volatile, and it cannot defend attacks transferred from a naturally trained
model. Our study enlightens the research community to rethink how to evaluate
the model's robustness appropriately.
- Abstract(参考訳): 最近の研究では、現在の敵対的攻撃手法は欠陥があり、意図的に設計された防御に遭遇すると簡単に失敗することが示されている。
モデルの詳細を少し変更しても攻撃は無効になることもある。
ラベル平滑化によるトレーニングモデルでは,ほとんどの勾配に基づく攻撃において,極めて精度が向上することが確認できた。
例えば、CIFAR-10でラベルスムースにトレーニングされたWideResNetモデルのロバストな精度は、PGD攻撃で75%に達する。
微妙な頑健さの根底にある理由を理解するために,ラベルの平滑化と敵の頑健さの関係を検討する。
ラベルの平滑化を訓練したネットワークの特性に関する理論的解析と各種攻撃下での性能検証を行った。
ラベル平滑化によって生じるロバスト性は, 防御効果が揮発性であることから不完全であり, 自然学習モデルからの攻撃を防御できないことを示す。
本研究は,モデルのロバスト性を適切に評価する方法を,研究コミュニティに再検討させる。
関連論文リスト
- FACTUAL: A Novel Framework for Contrastive Learning Based Robust SAR Image Classification [10.911464455072391]
FACTUALは、逆行訓練と堅牢なSAR分類のためのコントラストラーニングフレームワークである。
本モデルでは, 洗浄試料の99.7%, 摂動試料の89.6%の精度が得られた。
論文 参考訳(メタデータ) (2024-04-04T06:20:22Z) - In and Out-of-Domain Text Adversarial Robustness via Label Smoothing [64.66809713499576]
多様なNLPタスクの基本モデルにおいて,ラベルの平滑化戦略によって提供される対角的ロバスト性について検討する。
実験の結果,ラベルのスムース化は,BERTなどの事前学習モデルにおいて,様々な攻撃に対して,逆方向の堅牢性を大幅に向上させることがわかった。
また,予測信頼度とロバスト性の関係を解析し,ラベルの平滑化が敵の例に対する過度な信頼誤差を減少させることを示した。
論文 参考訳(メタデータ) (2022-12-20T14:06:50Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Evaluating the Robustness of Geometry-Aware Instance-Reweighted
Adversarial Training [9.351384969104771]
Geometry-aware Instance-reweighted Adversarial Training」と呼ばれる手法の堅牢性を評価する。
この方法でトレーニングされたネットワークは、損失の再スケーリングによってモデルが特定のサンプルに偏っていることが分かりました。
論文 参考訳(メタデータ) (2021-03-02T18:15:42Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。