論文の概要: Composite Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2012.05434v1
- Date: Thu, 10 Dec 2020 03:21:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-05-15 06:13:36.099100
- Title: Composite Adversarial Attacks
- Title(参考訳): 複合敵攻撃
- Authors: Xiaofeng Mao, Yuefeng Chen, Shuhui Wang, Hang Su, Yuan He, Hui Xue
- Abstract要約: 敵対攻撃は、機械学習(ML)モデルを欺くための技術です。
本論文では,攻撃アルゴリズムの最適組み合わせを自動的に探索するための複合攻撃法(Composite Adrial Attack,CAA)を提案する。
CAAは11の防衛でトップ10の攻撃を破り、時間の経過は少ない。
- 参考スコア(独自算出の注目度): 57.293211764569996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attack is a technique for deceiving Machine Learning (ML) models,
which provides a way to evaluate the adversarial robustness. In practice,
attack algorithms are artificially selected and tuned by human experts to break
a ML system. However, manual selection of attackers tends to be sub-optimal,
leading to a mistakenly assessment of model security. In this paper, a new
procedure called Composite Adversarial Attack (CAA) is proposed for
automatically searching the best combination of attack algorithms and their
hyper-parameters from a candidate pool of \textbf{32 base attackers}. We design
a search space where attack policy is represented as an attacking sequence,
i.e., the output of the previous attacker is used as the initialization input
for successors. Multi-objective NSGA-II genetic algorithm is adopted for
finding the strongest attack policy with minimum complexity. The experimental
result shows CAA beats 10 top attackers on 11 diverse defenses with less
elapsed time (\textbf{6 $\times$ faster than AutoAttack}), and achieves the new
state-of-the-art on $l_{\infty}$, $l_{2}$ and unrestricted adversarial attacks.
- Abstract(参考訳): 敵攻撃は機械学習(ML)モデルを識別する技法であり、敵の堅牢性を評価する手段を提供する。
実際には、攻撃アルゴリズムは人間の専門家によって人工的に選択され、調整され、MLシステムを破る。
しかし、攻撃者の手動による選択は準最適であり、誤ってモデルのセキュリティを評価する。
本稿では,攻撃アルゴリズムとそれらのハイパーパラメータの最適な組み合わせを, \textbf{32 base attack} の候補プールから自動的に探索する手法である composite adversarial attack (caa) を提案する。
我々は,攻撃方針を攻撃シーケンスとして表現する探索空間,すなわち,先行する攻撃者の出力を後継者の初期化入力として使用する。
多目的NSGA-II遺伝的アルゴリズムは、最小限の複雑さで最強の攻撃ポリシーを見つけるために用いられる。
実験の結果、caaは11の異なる防御で上位10人の攻撃者を打ち負かし(\textbf{6 $\times$ faster than autoattack})、l_{\infty}$, $l_{2}$, unrestricted adversarial attackの新たな最先端を実現した。
関連論文リスト
- DeltaBound Attack: Efficient decision-based attack in low queries regime [0.4061135251278187]
ディープニューラルネットワークやその他の機械学習システムは、敵の攻撃に対して脆弱である。
我々は,標準値の摂動を許容するハードラベル設定において,新しい強力な攻撃を提案する。
DeltaBound攻撃は、現在の最先端攻撃よりも、時折、うまく動作することが分かりました。
論文 参考訳(メタデータ) (2022-10-01T14:45:18Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Practical Evaluation of Adversarial Robustness via Adaptive Auto Attack [96.50202709922698]
実用的な評価手法は、便利な(パラメータフリー)、効率的な(イテレーションの少ない)、信頼性を持つべきである。
本稿では,パラメータフリーな適応オートアタック (A$3$) 評価手法を提案する。
論文 参考訳(メタデータ) (2022-03-10T04:53:54Z) - Generative Dynamic Patch Attack [6.1863763890100065]
我々は、エンドツーエンドのパッチアタックアルゴリズム、Generative Dynamic Patch Attack (GDPA)を提案する。
GDPAは、各入力画像に対して、パッチパターンとパッチ位置の両方を逆向きに生成する。
VGGFace、Traffic Sign、ImageNetの実験によると、GDPAは最先端のパッチ攻撃よりも高い攻撃成功率を達成する。
論文 参考訳(メタデータ) (2021-11-08T04:15:34Z) - Adversarial Attacks on Gaussian Process Bandits [47.84198626686564]
本研究では,攻撃者の強さや事前情報に異なる仮定で様々な敵攻撃手法を提案する。
我々の目標は,GPバンディットに対する敵攻撃を理論的・実践的両面から理解することである。
GP帯域に対する敵攻撃は,攻撃予算が低い場合でも,$mathcalR_rmターゲットに対してアルゴリズムを強制的に強制することに成功した。
論文 参考訳(メタデータ) (2021-10-16T02:39:10Z) - PDPGD: Primal-Dual Proximal Gradient Descent Adversarial Attack [92.94132883915876]
最先端のディープニューラルネットワークは、小さな入力摂動に敏感である。
対向騒音に対するロバスト性を改善するための多くの防御法が提案されている。
敵の強靭さを評価することは 極めて困難であることが分かりました
論文 参考訳(メタデータ) (2021-06-03T01:45:48Z) - Action-Manipulation Attacks Against Stochastic Bandits: Attacks and
Defense [45.408568528354216]
我々はアクション・マニピュレーション・アタックと呼ばれる新しいタイプの攻撃を導入する。
この攻撃では、相手が選択したアクション信号を変更することができる。
このような攻撃に対して防御するために,アクション操作攻撃に対して堅牢な新しいアルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-02-19T04:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。