論文の概要: Mitigating Advanced Adversarial Attacks with More Advanced Gradient
Obfuscation Techniques
- arxiv url: http://arxiv.org/abs/2005.13712v1
- Date: Wed, 27 May 2020 23:42:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 09:52:30.078783
- Title: Mitigating Advanced Adversarial Attacks with More Advanced Gradient
Obfuscation Techniques
- Title(参考訳): より高度な勾配難読化手法を用いたadversarial attackの軽減
- Authors: Han Qiu, Yi Zeng, Qinkai Zheng, Tianwei Zhang, Meikang Qiu, Gerard
Memmi
- Abstract要約: Deep Neural Networks (DNN) は、Adversarial Examples (AEs) に弱いことがよく知られている。
近年,高度勾配に基づく攻撃手法が提案されている。
本稿では、これらの高度な勾配に基づく攻撃を緩和するための着実に一歩を踏み出す。
- 参考スコア(独自算出の注目度): 13.972753012322126
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) are well-known to be vulnerable to Adversarial
Examples (AEs). A large amount of efforts have been spent to launch and heat
the arms race between the attackers and defenders. Recently, advanced
gradient-based attack techniques were proposed (e.g., BPDA and EOT), which have
defeated a considerable number of existing defense methods. Up to today, there
are still no satisfactory solutions that can effectively and efficiently defend
against those attacks.
In this paper, we make a steady step towards mitigating those advanced
gradient-based attacks with two major contributions. First, we perform an
in-depth analysis about the root causes of those attacks, and propose four
properties that can break the fundamental assumptions of those attacks. Second,
we identify a set of operations that can meet those properties. By integrating
these operations, we design two preprocessing functions that can invalidate
these powerful attacks. Extensive evaluations indicate that our solutions can
effectively mitigate all existing standard and advanced attack techniques, and
beat 11 state-of-the-art defense solutions published in top-tier conferences
over the past 2 years. The defender can employ our solutions to constrain the
attack success rate below 7% for the strongest attacks even the adversary has
spent dozens of GPU hours.
- Abstract(参考訳): Deep Neural Networks (DNN) は、Adversarial Examples (AE) の脆弱性としてよく知られている。
攻撃者と守備兵の間の武器競争の開始と加熱に多くの努力が費やされている。
近年、先進的な勾配に基づく攻撃手法(BPDAやEOTなど)が提案され、既存の防衛手法をかなり多く破っている。
今日まで、これらの攻撃に対して効果的かつ効率的に防御できる、満足のいくソリューションはまだ存在しない。
本稿では,2つの大きな貢献により,これらの高度な勾配に基づく攻撃の軽減に向けて,着実に一歩を踏み出します。
まず,これらの攻撃の根本原因を詳細に分析し,攻撃の基本的な前提を破ることのできる4つの特性を提案する。
次に、これらのプロパティを満たす一連のオペレーションを識別します。
これらの操作を統合することで、これらの強力な攻撃を無効化できる2つの前処理関数を設計する。
広範な評価は、我々のソリューションが既存の標準および先進的な攻撃技術を効果的に軽減し、過去2年間にトップレベルのカンファレンスで公開された11の最先端の防御ソリューションを破ることができることを示している。
ディフェンダーは、最も強力な攻撃に対して7%未満の攻撃成功率を制限するために、我々のソリューションを利用することができます。
関連論文リスト
- Effectiveness of Moving Target Defenses for Adversarial Attacks in
ML-based Malware Detection [0.0]
近年,敵ML攻撃に対する標的防御(MTD)の移動が提案されている。
マルウェア検出領域に適用した敵ML攻撃に対する最近のMTDの有効性を初めて検討した。
転送可能性とクエリアタック戦略は,これらの防御に対して高いレベルの回避を達成できることを示す。
論文 参考訳(メタデータ) (2023-02-01T16:03:34Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - LAFEAT: Piercing Through Adversarial Defenses with Latent Features [15.189068478164337]
特定の"ロバスト"モデルの潜在機能は、驚くほど敵の攻撃に影響を受けやすいことを示す。
勾配降下ステップ、すなわちLAFEATで潜伏機能を利用する統一$ell_infty$-normホワイトボックス攻撃アルゴリズムを紹介します。
論文 参考訳(メタデータ) (2021-04-19T13:22:20Z) - Guided Adversarial Attack for Evaluating and Enhancing Adversarial
Defenses [59.58128343334556]
我々は、より適切な勾配方向を見つけ、攻撃効果を高め、より効率的な対人訓練をもたらす標準損失に緩和項を導入する。
本稿では, クリーン画像の関数マッピングを用いて, 敵生成を誘導するGAMA ( Guided Adversarial Margin Attack) を提案する。
また,一段防衛における最先端性能を実現するためのGAT ( Guided Adversarial Training) を提案する。
論文 参考訳(メタデータ) (2020-11-30T16:39:39Z) - FDA3 : Federated Defense Against Adversarial Attacks for Cloud-Based
IIoT Applications [11.178342219720298]
産業用IoT(IIoT)アプリケーションで使用されるDNN(Deep Neural Networks)を騙すための敵攻撃が増えている。
FDA3は, 異なる情報源からの敵例に対する防衛知識を集約し, 効果的に連携した防衛手法を提案する。
提案したクラウドベースのアーキテクチャにより,IIoTデバイス間の異なる攻撃に対する防御能力の共有が可能になる。
論文 参考訳(メタデータ) (2020-06-28T15:17:15Z) - RayS: A Ray Searching Method for Hard-label Adversarial Attack [99.72117609513589]
我々は、レイサーチ攻撃(RayS)を提案し、これはハードラベル攻撃の有効性と効率を大幅に改善する。
モデルの正当性チェックとしても使用できる。
論文 参考訳(メタデータ) (2020-06-23T07:01:50Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Stealthy and Efficient Adversarial Attacks against Deep Reinforcement
Learning [30.46580767540506]
本稿では,Deep Reinforcement Learning Agentを効果的かつ効果的に攻撃するための2つの新しい敵攻撃手法を紹介する。
敵は将来の環境状態とエージェントの行動を予測するモデルを構築し、それぞれの攻撃戦略の損傷を評価し、最適な攻撃方法を選択する。
敵は自動的にドメインに依存しないモデルを学び、エピソード中のエージェントを攻撃する重要な瞬間を発見する。
論文 参考訳(メタデータ) (2020-05-14T16:06:38Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z) - Deflecting Adversarial Attacks [94.85315681223702]
我々は、攻撃者が攻撃対象クラスに似た入力を生成することによって、敵攻撃を「防御」するこのサイクルを終わらせる新しいアプローチを提案する。
本稿ではまず,3つの検出機構を組み合わせたカプセルネットワークに基づくより強力な防御手法を提案する。
論文 参考訳(メタデータ) (2020-02-18T06:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。