論文の概要: Mitigating Advanced Adversarial Attacks with More Advanced Gradient
Obfuscation Techniques
- arxiv url: http://arxiv.org/abs/2005.13712v1
- Date: Wed, 27 May 2020 23:42:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 09:52:30.078783
- Title: Mitigating Advanced Adversarial Attacks with More Advanced Gradient
Obfuscation Techniques
- Title(参考訳): より高度な勾配難読化手法を用いたadversarial attackの軽減
- Authors: Han Qiu, Yi Zeng, Qinkai Zheng, Tianwei Zhang, Meikang Qiu, Gerard
Memmi
- Abstract要約: Deep Neural Networks (DNN) は、Adversarial Examples (AEs) に弱いことがよく知られている。
近年,高度勾配に基づく攻撃手法が提案されている。
本稿では、これらの高度な勾配に基づく攻撃を緩和するための着実に一歩を踏み出す。
- 参考スコア(独自算出の注目度): 13.972753012322126
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) are well-known to be vulnerable to Adversarial
Examples (AEs). A large amount of efforts have been spent to launch and heat
the arms race between the attackers and defenders. Recently, advanced
gradient-based attack techniques were proposed (e.g., BPDA and EOT), which have
defeated a considerable number of existing defense methods. Up to today, there
are still no satisfactory solutions that can effectively and efficiently defend
against those attacks.
In this paper, we make a steady step towards mitigating those advanced
gradient-based attacks with two major contributions. First, we perform an
in-depth analysis about the root causes of those attacks, and propose four
properties that can break the fundamental assumptions of those attacks. Second,
we identify a set of operations that can meet those properties. By integrating
these operations, we design two preprocessing functions that can invalidate
these powerful attacks. Extensive evaluations indicate that our solutions can
effectively mitigate all existing standard and advanced attack techniques, and
beat 11 state-of-the-art defense solutions published in top-tier conferences
over the past 2 years. The defender can employ our solutions to constrain the
attack success rate below 7% for the strongest attacks even the adversary has
spent dozens of GPU hours.
- Abstract(参考訳): Deep Neural Networks (DNN) は、Adversarial Examples (AE) の脆弱性としてよく知られている。
攻撃者と守備兵の間の武器競争の開始と加熱に多くの努力が費やされている。
近年、先進的な勾配に基づく攻撃手法(BPDAやEOTなど)が提案され、既存の防衛手法をかなり多く破っている。
今日まで、これらの攻撃に対して効果的かつ効率的に防御できる、満足のいくソリューションはまだ存在しない。
本稿では,2つの大きな貢献により,これらの高度な勾配に基づく攻撃の軽減に向けて,着実に一歩を踏み出します。
まず,これらの攻撃の根本原因を詳細に分析し,攻撃の基本的な前提を破ることのできる4つの特性を提案する。
次に、これらのプロパティを満たす一連のオペレーションを識別します。
これらの操作を統合することで、これらの強力な攻撃を無効化できる2つの前処理関数を設計する。
広範な評価は、我々のソリューションが既存の標準および先進的な攻撃技術を効果的に軽減し、過去2年間にトップレベルのカンファレンスで公開された11の最先端の防御ソリューションを破ることができることを示している。
ディフェンダーは、最も強力な攻撃に対して7%未満の攻撃成功率を制限するために、我々のソリューションを利用することができます。
関連論文リスト
- Defense Against Prompt Injection Attack by Leveraging Attack Techniques [66.65466992544728]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクで顕著なパフォーマンスを実現している。
LLMが進化を続けるにつれて、新しい脆弱性、特にインジェクション攻撃が発生する。
近年の攻撃手法は, LLMの命令追従能力とデータ内容に注入された命令を識別する能力を活用している。
論文 参考訳(メタデータ) (2024-11-01T09:14:21Z) - Can Go AIs be adversarially robust? [4.466856575755327]
自然対策を加えることで、Goの堅牢性が達成できるかどうかを考察する。
これらの防御策のいくつかは、以前発見された攻撃から守られているが、新しく訓練された敵には耐えられない。
我々の研究結果は、堅牢なAIシステムの構築は、非常に超人的なシステムであっても、最も難易度の高い設定で難しいことを示唆している。
論文 参考訳(メタデータ) (2024-06-18T17:57:49Z) - IDEA: Invariant Defense for Graph Adversarial Robustness [60.0126873387533]
敵攻撃に対する不変因果判定法(IDEA)を提案する。
我々は,情報理論の観点から,ノードと構造に基づく分散目標を導出する。
実験によると、IDEAは5つのデータセットすべてに対する5つの攻撃に対して、最先端の防御性能を達成している。
論文 参考訳(メタデータ) (2023-05-25T07:16:00Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - LAFEAT: Piercing Through Adversarial Defenses with Latent Features [15.189068478164337]
特定の"ロバスト"モデルの潜在機能は、驚くほど敵の攻撃に影響を受けやすいことを示す。
勾配降下ステップ、すなわちLAFEATで潜伏機能を利用する統一$ell_infty$-normホワイトボックス攻撃アルゴリズムを紹介します。
論文 参考訳(メタデータ) (2021-04-19T13:22:20Z) - Guided Adversarial Attack for Evaluating and Enhancing Adversarial
Defenses [59.58128343334556]
我々は、より適切な勾配方向を見つけ、攻撃効果を高め、より効率的な対人訓練をもたらす標準損失に緩和項を導入する。
本稿では, クリーン画像の関数マッピングを用いて, 敵生成を誘導するGAMA ( Guided Adversarial Margin Attack) を提案する。
また,一段防衛における最先端性能を実現するためのGAT ( Guided Adversarial Training) を提案する。
論文 参考訳(メタデータ) (2020-11-30T16:39:39Z) - FDA3 : Federated Defense Against Adversarial Attacks for Cloud-Based
IIoT Applications [11.178342219720298]
産業用IoT(IIoT)アプリケーションで使用されるDNN(Deep Neural Networks)を騙すための敵攻撃が増えている。
FDA3は, 異なる情報源からの敵例に対する防衛知識を集約し, 効果的に連携した防衛手法を提案する。
提案したクラウドベースのアーキテクチャにより,IIoTデバイス間の異なる攻撃に対する防御能力の共有が可能になる。
論文 参考訳(メタデータ) (2020-06-28T15:17:15Z) - RayS: A Ray Searching Method for Hard-label Adversarial Attack [99.72117609513589]
我々は、レイサーチ攻撃(RayS)を提案し、これはハードラベル攻撃の有効性と効率を大幅に改善する。
モデルの正当性チェックとしても使用できる。
論文 参考訳(メタデータ) (2020-06-23T07:01:50Z) - Stealthy and Efficient Adversarial Attacks against Deep Reinforcement
Learning [30.46580767540506]
本稿では,Deep Reinforcement Learning Agentを効果的かつ効果的に攻撃するための2つの新しい敵攻撃手法を紹介する。
敵は将来の環境状態とエージェントの行動を予測するモデルを構築し、それぞれの攻撃戦略の損傷を評価し、最適な攻撃方法を選択する。
敵は自動的にドメインに依存しないモデルを学び、エピソード中のエージェントを攻撃する重要な瞬間を発見する。
論文 参考訳(メタデータ) (2020-05-14T16:06:38Z) - Deflecting Adversarial Attacks [94.85315681223702]
我々は、攻撃者が攻撃対象クラスに似た入力を生成することによって、敵攻撃を「防御」するこのサイクルを終わらせる新しいアプローチを提案する。
本稿ではまず,3つの検出機構を組み合わせたカプセルネットワークに基づくより強力な防御手法を提案する。
論文 参考訳(メタデータ) (2020-02-18T06:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。