論文の概要: Can Adversarial Training Be Manipulated By Non-Robust Features?
- arxiv url: http://arxiv.org/abs/2201.13329v1
- Date: Mon, 31 Jan 2022 16:25:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-02-01 17:30:44.807877
- Title: Can Adversarial Training Be Manipulated By Non-Robust Features?
- Title(参考訳): 逆行トレーニングは非ロバスト機能によって操作できるのか?
- Authors: Lue Tao, Lei Feng, Hongxin Wei, Jinfeng Yi, Sheng-Jun Huang, Songcan
Chen
- Abstract要約: もともとテストタイムの敵の例に抵抗するために設計された対人訓練は、トレーニング時間アベイラビリティーアタックの緩和に有望であることが示されている。
我々は、トレーニングデータをわずかに摂動させることで、堅牢な可用性を阻害することを目的とした、安定性攻撃と呼ばれる新しい脅威モデルを特定する。
この脅威の下では、従来の防衛予算$epsilon$による敵の訓練が、単純な統計的条件下でテストロバスト性を提供するのに確実に失敗することを発見した。
- 参考スコア(独自算出の注目度): 64.73107315313251
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial training, originally designed to resist test-time adversarial
examples, has shown to be promising in mitigating training-time availability
attacks. This defense ability, however, is challenged in this paper. We
identify a novel threat model named stability attacks, which aims to hinder
robust availability by slightly perturbing the training data. Under this
threat, we find that adversarial training using a conventional defense budget
$\epsilon$ provably fails to provide test robustness in a simple statistical
setting when the non-robust features of the training data are reinforced by
$\epsilon$-bounded perturbation. Further, we analyze the necessity of enlarging
the defense budget to counter stability attacks. Finally, comprehensive
experiments demonstrate that stability attacks are harmful on benchmark
datasets, and thus the adaptive defense is necessary to maintain robustness.
- Abstract(参考訳): もともとテストタイムの敵の例に抵抗するために設計された対人訓練は、トレーニング時間アベイラビリティーアタックの緩和に有望であることが示されている。
しかし,本論文では,この防御能力に疑問を呈する。
我々は,トレーニングデータに多少の制約を加えることで,堅牢な可用性を妨げることを目的とした,安定性アタックという新たな脅威モデルを特定した。
この脅威下では、従来の防衛予算$\epsilon$を用いた敵の訓練は、トレーニングデータの非破壊的特徴が$\epsilon$-bounded 摂動によって強化された場合、単純な統計的条件でテストの堅牢性を提供するのに確実に失敗する。
さらに,安定攻撃に対する防衛予算の拡大の必要性も分析した。
最後に、包括的な実験により、ベンチマークデータセットでは安定性攻撃が有害であることを示し、堅牢性を維持するためには適応的防御が必要である。
関連論文リスト
- Learning from the Good Ones: Risk Profiling-Based Defenses Against Evasion Attacks on DNNs [4.837320865223376]
安全クリティカルなアプリケーションは、予測と推論にディープニューラルネットワーク(DNN)を使用する。
本稿では,リスク認識戦略を用いて静的防御を選択的に訓練するリスクプロファイリングフレームワークを提案する。
重症度が低い患者に対して選択的トレーニングを行うことで,27.5%のリコールが達成され,精度への影響は最小限であった。
論文 参考訳(メタデータ) (2025-05-10T00:33:15Z) - Towards Robust Stability Prediction in Smart Grids: GAN-based Approach under Data Constraints and Adversarial Challenges [53.2306792009435]
本稿では,安定したデータのみを用いて,スマートグリッドの不安定性を検出する新しいフレームワークを提案する。
最大98.1%の精度でグリッド安定性を予測でき、98.9%で敵の攻撃を検知できる。
シングルボードコンピュータ上で実装され、7ms以下の平均応答時間でリアルタイムな意思決定を可能にする。
論文 参考訳(メタデータ) (2025-01-27T20:48:25Z) - Position: Towards Resilience Against Adversarial Examples [42.09231029292568]
我々は、敵の弾力性の定義と、敵の弾力性のある防御を設計する方法について概観する。
次に, 対向弾性のサブプロブレムを導入し, 連続適応ロバストネス(continuousal adapt robustness)と呼ぶ。
本研究では, 連続適応ロバストネスと, マルチアタックロバストネスと予期せぬアタックロバストネスの関連性を実証する。
論文 参考訳(メタデータ) (2024-05-02T14:58:44Z) - Unlearning Backdoor Threats: Enhancing Backdoor Defense in Multimodal Contrastive Learning via Local Token Unlearning [49.242828934501986]
マルチモーダルコントラスト学習は高品質な機能を構築するための強力なパラダイムとして登場した。
バックドア攻撃は 訓練中に モデルに 悪意ある行動を埋め込む
我々は,革新的なトークンベースの局所的忘れ忘れ学習システムを導入する。
論文 参考訳(メタデータ) (2024-03-24T18:33:15Z) - Robust Feature Inference: A Test-time Defense Strategy using Spectral Projections [12.807619042576018]
我々はロバスト特徴推論(RFI)と呼ばれる新しいテスト時間防衛戦略を提案する。
RFIは、追加のテスト時間計算なしで既存の(ロバストな)トレーニング手順と簡単に統合できる。
RFIは、適応攻撃や転送攻撃によるロバスト性を継続的に改善することを示す。
論文 参考訳(メタデータ) (2023-07-21T16:18:58Z) - Randomness in ML Defenses Helps Persistent Attackers and Hinders
Evaluators [49.52538232104449]
堅牢なMLディフェンスを設計することがますます重要になっている。
近年の研究では、当初最先端の攻撃に抵抗する多くの防衛は、適応的な敵によって破壊される可能性があることが判明している。
我々は、防御設計をシンプルにし、ホワイトボックスの防御は可能な限りランダム性を損なうべきだと論じる。
論文 参考訳(メタデータ) (2023-02-27T01:33:31Z) - Strength-Adaptive Adversarial Training [103.28849734224235]
対戦訓練(AT)は、敵データに対するネットワークの堅牢性を確実に改善することが証明されている。
所定の摂動予算を持つ現在のATは、堅牢なネットワークの学習に制限がある。
本稿では,これらの制限を克服するために,emphStrength-Adaptive Adversarial Training (SAAT)を提案する。
論文 参考訳(メタデータ) (2022-10-04T00:22:37Z) - Increasing Confidence in Adversarial Robustness Evaluations [53.2174171468716]
本稿では,弱い攻撃を識別し,防御評価を弱めるテストを提案する。
本テストでは,各サンプルに対する逆例の存在を保証するため,ニューラルネットワークをわずかに修正した。
これまでに公表された13の防衛のうち、11の防衛について、元の防衛評価は我々のテストに失敗し、これらの防衛を破る強力な攻撃はそれを通過する。
論文 参考訳(メタデータ) (2022-06-28T13:28:13Z) - Towards Evaluating the Robustness of Neural Networks Learned by
Transduction [44.189248766285345]
Greedy Model Space Attack (GMSA)は、トランスダクティブ学習に基づく防御を評価するための新しいベースラインとして機能する攻撃フレームワークである。
GMSAは, 弱いインスタンス化であっても, 従来のトランスダクティブ・ラーニングに基づく防御を破ることができることを示す。
論文 参考訳(メタデータ) (2021-10-27T19:39:50Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。