論文の概要: Generative Dynamic Patch Attack
- arxiv url: http://arxiv.org/abs/2111.04266v1
- Date: Mon, 8 Nov 2021 04:15:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-09 15:50:56.762430
- Title: Generative Dynamic Patch Attack
- Title(参考訳): 生成的動的パッチ攻撃
- Authors: Xiang Li, Shihao Ji
- Abstract要約: 我々は、エンドツーエンドのパッチアタックアルゴリズム、Generative Dynamic Patch Attack (GDPA)を提案する。
GDPAは、各入力画像に対して、パッチパターンとパッチ位置の両方を逆向きに生成する。
VGGFace、Traffic Sign、ImageNetの実験によると、GDPAは最先端のパッチ攻撃よりも高い攻撃成功率を達成する。
- 参考スコア(独自算出の注目度): 6.1863763890100065
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial patch attack is a family of attack algorithms that perturb a part
of image to fool a deep neural network model. Existing patch attacks mostly
consider injecting adversarial patches at input-agnostic locations: either a
predefined location or a random location. This attack setup may be sufficient
for attack but has considerable limitations when using it for adversarial
training. Thus, robust models trained with existing patch attacks cannot
effectively defend other adversarial attacks. In this paper, we first propose
an end-to-end patch attack algorithm, Generative Dynamic Patch Attack (GDPA),
which generates both patch pattern and patch location adversarially for each
input image. We show that GDPA is a generic attack framework that can produce
dynamic/static and visible/invisible patches with a few configuration changes.
Secondly, GDPA can be readily integrated for adversarial training to improve
model robustness to various adversarial attacks. Extensive experiments on
VGGFace, Traffic Sign and ImageNet show that GDPA achieves higher attack
success rates than state-of-the-art patch attacks, while adversarially trained
model with GDPA demonstrates superior robustness to adversarial patch attacks
than competing methods. Our source code can be found at
https://github.com/lxuniverse/gdpa.
- Abstract(参考訳): 敵対的パッチ攻撃(adversarial patch attack)は、画像の一部を乱してディープニューラルネットワークモデルを騙す一連の攻撃アルゴリズムである。
既存のパッチ攻撃は、主に、入力に依存しない場所(予め定義された場所またはランダムな場所)に敵のパッチを注入することを検討する。
この攻撃設定は攻撃に十分であるが、敵の訓練に使用する場合、かなりの制限がある。
したがって、既存のパッチ攻撃で訓練された堅牢なモデルは、他の敵攻撃を効果的に防御することはできない。
本稿では、まず、各入力画像に対してパッチパターンとパッチ位置の両方を逆向きに生成するエンドツーエンドのパッチ攻撃アルゴリズム、Generative Dynamic Patch Attack (GDPA)を提案する。
GDPAは動的・静的・可視・可視のパッチを生成する汎用的なアタックフレームワークであり、いくつかの設定変更がある。
第二に、GDPAは敵の訓練に容易に統合することができ、様々な敵の攻撃に対するモデル堅牢性を改善することができる。
VGGFace、Traffic Sign、ImageNetの大規模な実験では、GDPAは最先端のパッチアタックよりも高い攻撃成功率を達成する一方で、GDPAと敵対的に訓練されたモデルは、競合する方法よりも敵のパッチアタックに対して優れた堅牢性を示す。
ソースコードはhttps://github.com/lxuniverse/gdpaにあります。
関連論文リスト
- Versatile Defense Against Adversarial Attacks on Image Recognition [2.9980620769521513]
現実の環境での敵の攻撃に対する防御は、アンチウイルスソフトの動作方法と比較することができる。
画像から画像への翻訳をベースとした防御手法が実現可能であると考えられる。
訓練されたモデルは、分類精度をほぼゼロから平均86%に改善した。
論文 参考訳(メタデータ) (2024-03-13T01:48:01Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - Task-agnostic Defense against Adversarial Patch Attacks [25.15948648034204]
対向パッチは、指定された局所領域内に対向画素を注入することにより、誤誘導ニューラルネットワークを攻撃する。
我々は、ホワイトボックスの敵パッチに対するタスク非依存の防御であるPatchZeroを提示する。
本手法は, 良性性能の劣化を伴わずに, SOTAの頑健な精度を実現する。
論文 参考訳(メタデータ) (2022-07-05T03:49:08Z) - Segment and Complete: Defending Object Detectors against Adversarial
Patch Attacks with Robust Patch Detection [142.24869736769432]
敵のパッチ攻撃は最先端の物体検出器に深刻な脅威をもたらす。
パッチ攻撃に対して物体検出器を防御するフレームワークであるSegment and Complete Defense (SAC)を提案する。
SACは、物理的パッチ攻撃の標的攻撃成功率を著しく低減できることを示す。
論文 参考訳(メタデータ) (2021-12-08T19:18:48Z) - Composite Adversarial Attacks [57.293211764569996]
敵対攻撃は、機械学習(ML)モデルを欺くための技術です。
本論文では,攻撃アルゴリズムの最適組み合わせを自動的に探索するための複合攻撃法(Composite Adrial Attack,CAA)を提案する。
CAAは11の防衛でトップ10の攻撃を破り、時間の経過は少ない。
論文 参考訳(メタデータ) (2020-12-10T03:21:16Z) - Robustness Out of the Box: Compositional Representations Naturally
Defend Against Black-Box Patch Attacks [11.429509031463892]
パッチベースの敵攻撃は、誤分類を引き起こす入力に知覚できるが局所的な変化をもたらす。
本研究では,ブラックボックスパッチ攻撃に対する2つの対策について検討する。
敵の訓練は、最先端の位置最適化パッチ攻撃に対する効果が限られていることが判明した。
論文 参考訳(メタデータ) (2020-12-01T15:04:23Z) - Attack Agnostic Adversarial Defense via Visual Imperceptible Bound [70.72413095698961]
本研究の目的は、目視攻撃と目視攻撃の両方に対して一定の範囲内で堅牢な防衛モデルを設計することである。
提案するディフェンスモデルは,MNIST,CIFAR-10,Tiny ImageNetデータベース上で評価される。
提案アルゴリズムは攻撃非依存であり,攻撃アルゴリズムの知識を必要としない。
論文 参考訳(メタデータ) (2020-10-25T23:14:26Z) - Bias-based Universal Adversarial Patch Attack for Automatic Check-out [59.355948824578434]
逆の例は、ディープニューラルネットワーク(DNN)を簡単に誤解させる、知覚不能な摂動を持つ入力である。
既存の戦略は強力な一般化能力を持つ敵パッチを生成できなかった。
本稿では,強い一般化能力を持つクラス非依存の普遍的敵パッチを生成するためのバイアスベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-05-19T07:38:54Z) - Certified Defenses for Adversarial Patches [72.65524549598126]
敵パッチ攻撃は、現実世界のコンピュータビジョンシステムに対する最も実用的な脅威モデルの一つである。
本稿では,パッチアタックに対する認証と実証的防御について検討する。
論文 参考訳(メタデータ) (2020-03-14T19:57:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。