論文の概要: Standard-Deviation-Inspired Regularization for Improving Adversarial Robustness
- arxiv url: http://arxiv.org/abs/2412.19947v1
- Date: Fri, 27 Dec 2024 22:59:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-31 16:07:58.328265
- Title: Standard-Deviation-Inspired Regularization for Improving Adversarial Robustness
- Title(参考訳): 標準偏差インスパイアされた正則化による対向ロバスト性向上
- Authors: Olukorede Fakorede, Modeste Atsague, Jin Tian,
- Abstract要約: 敵対的訓練(AT)は、敵対的攻撃に対するディープニューラルネットワーク(DNN)の堅牢性を改善するために実証されている。
我々は、ATの内部はモデルの確率の標準偏差を最小化するのと似ていると論じる。
議論を支援するために,SDI尺度が敵の例を作成するのに有効であることを実験的に示す。
- 参考スコア(独自算出の注目度): 6.611676598972797
- License:
- Abstract: Adversarial Training (AT) has been demonstrated to improve the robustness of deep neural networks (DNNs) against adversarial attacks. AT is a min-max optimization procedure where in adversarial examples are generated to train a more robust DNN. The inner maximization step of AT increases the losses of inputs with respect to their actual classes. The outer minimization involves minimizing the losses on the adversarial examples obtained from the inner maximization. This work proposes a standard-deviation-inspired (SDI) regularization term to improve adversarial robustness and generalization. We argue that the inner maximization in AT is similar to minimizing a modified standard deviation of the model's output probabilities. Moreover, we suggest that maximizing this modified standard deviation can complement the outer minimization of the AT framework. To support our argument, we experimentally show that the SDI measure can be used to craft adversarial examples. Additionally, we demonstrate that combining the SDI regularization term with existing AT variants enhances the robustness of DNNs against stronger attacks, such as CW and Auto-attack, and improves generalization.
- Abstract(参考訳): 敵対的訓練(AT)は、敵対的攻撃に対するディープニューラルネットワーク(DNN)の堅牢性を改善するために実証されている。
ATは、より堅牢なDNNをトレーニングするために、逆例を生成する、min-max最適化手順である。
ATの内部最大化ステップは、実際のクラスに対する入力の損失を増加させる。
外的最小化は、内的最大化から得られる敵の例の損失を最小化する。
本研究は, 対向ロバスト性および一般化を改善するために, 標準偏差型(SDI)正規化項を提案する。
我々は、AT内部の最大化は、モデル出力確率の標準偏差の修正を最小化するのと似ていると論じる。
さらに,この改良された標準偏差の最大化は,ATフレームワークの外周最小化を補完する可能性が示唆された。
議論を支援するために,SDI尺度が敵の例を作成するのに有効であることを実験的に示す。
さらに、SDI正規化項と既存のAT変種を組み合わせることで、CWやオートアタックのような強力な攻撃に対するDNNの堅牢性が向上し、一般化が向上することを示した。
関連論文リスト
- Evaluating Model Robustness Using Adaptive Sparse L0 Regularization [5.772716337390152]
敵の例は、機能の最小限のサブセットを変更することで、既存の防御に挑戦します。
現在のL0標準攻撃手法は、精度と効率のトレードオフに直面している。
本稿では,L0ノルムを基準として,新たな,スケーラブルで効果的な逆例生成手法を提案する。
論文 参考訳(メタデータ) (2024-08-28T11:02:23Z) - Improving Adversarial Training using Vulnerability-Aware Perturbation
Budget [7.430861908931903]
敵対的訓練(AT)は、敵対的攻撃に対するディープニューラルネットワーク(DNN)の堅牢性を効果的に改善する。
本稿では,AT の逆例に摂動境界を割り当てる簡易で安価な脆弱性認識型再重み付け関数を提案する。
実験の結果,提案手法は様々な攻撃に対してATアルゴリズムの頑健さを真に向上させることがわかった。
論文 参考訳(メタデータ) (2024-03-06T21:50:52Z) - Perturbation-Invariant Adversarial Training for Neural Ranking Models:
Improving the Effectiveness-Robustness Trade-Off [107.35833747750446]
正統な文書に不可避な摂動を加えることで 敵の例を作れます
この脆弱性は信頼性に関する重大な懸念を生じさせ、NRMの展開を妨げている。
本研究では,NRMにおける有効・損耗トレードオフに関する理論的保証を確立する。
論文 参考訳(メタデータ) (2023-12-16T05:38:39Z) - Improving Out-of-Distribution Generalization by Adversarial Training
with Structured Priors [17.936426699670864]
サンプルワイド・アドバイザリ・トレーニング (AT) では, アウト・オブ・ディストリビューション (OOD) の一般化が限定的に改善されていることを示す。
OOD-robustモデルのトレーニングのために,低ランク構造をもつ2つのAT変種を提案する。
提案手法は,経験的リスク最小化(ERM)とサンプルワイドATより優れている。
論文 参考訳(メタデータ) (2022-10-13T07:37:42Z) - Improved and Interpretable Defense to Transferred Adversarial Examples
by Jacobian Norm with Selective Input Gradient Regularization [31.516568778193157]
ディープニューラルネットワーク(DNN)の堅牢性を改善するために、AT(Adversarial Training)がよく用いられる。
本研究では,ジャコビアンノルムと選択的入力勾配正規化(J-SIGR)に基づくアプローチを提案する。
実験により、提案したJ-SIGRは、転送された敵攻撃に対するロバスト性を向上し、ニューラルネットワークからの予測が容易に解釈できることが示されている。
論文 参考訳(メタデータ) (2022-07-09T01:06:41Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Latent Boundary-guided Adversarial Training [61.43040235982727]
モデルトレーニングに敵の例を注入する最も効果的な戦略は、敵のトレーニングであることが証明されている。
本稿では, LAtent bounDary-guided aDvErsarial tRaining という新たな逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-08T07:40:55Z) - Interpolated Joint Space Adversarial Training for Robust and
Generalizable Defenses [82.3052187788609]
敵の訓練(AT)は、敵の攻撃に対する最も信頼できる防御の1つと考えられている。
近年の研究では、新たな脅威モデルの下での対向サンプルによる一般化の改善が示されている。
我々は、JSTM(Joint Space Threat Model)と呼ばれる新しい脅威モデルを提案する。
JSTMでは,新たな敵攻撃・防衛手法が開発されている。
論文 参考訳(メタデータ) (2021-12-12T21:08:14Z) - Improved Adversarial Training via Learned Optimizer [101.38877975769198]
対戦型トレーニングモデルの堅牢性を改善するための枠組みを提案する。
共学習のパラメータモデルの重み付けにより、提案するフレームワークは、更新方向に対するロバスト性とステップの適応性を一貫して改善する。
論文 参考訳(メタデータ) (2020-04-25T20:15:53Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。