論文の概要: PatchAttack: A Black-box Texture-based Attack with Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2004.05682v2
- Date: Sun, 19 Jul 2020 22:36:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 05:32:29.919450
- Title: PatchAttack: A Black-box Texture-based Attack with Reinforcement
Learning
- Title(参考訳): PatchAttack:強化学習によるブラックボックステクスチャベースの攻撃
- Authors: Chenglin Yang, Adam Kortylewski, Cihang Xie, Yinzhi Cao, and Alan
Yuille
- Abstract要約: パッチベースの攻撃は、誤分類を引き起こす入力に認識できるが局所的な変更をもたらす。
提案したPatchAttackは、クエリ効率が高く、ターゲットと非ターゲットの両方の攻撃のモデルを壊すことができる。
- 参考スコア(独自算出の注目度): 31.255179167694887
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Patch-based attacks introduce a perceptible but localized change to the input
that induces misclassification. A limitation of current patch-based black-box
attacks is that they perform poorly for targeted attacks, and even for the less
challenging non-targeted scenarios, they require a large number of queries. Our
proposed PatchAttack is query efficient and can break models for both targeted
and non-targeted attacks. PatchAttack induces misclassifications by
superimposing small textured patches on the input image. We parametrize the
appearance of these patches by a dictionary of class-specific textures. This
texture dictionary is learned by clustering Gram matrices of feature
activations from a VGG backbone. PatchAttack optimizes the position and texture
parameters of each patch using reinforcement learning. Our experiments show
that PatchAttack achieves > 99% success rate on ImageNet for a wide range of
architectures, while only manipulating 3% of the image for non-targeted attacks
and 10% on average for targeted attacks. Furthermore, we show that PatchAttack
circumvents state-of-the-art adversarial defense methods successfully.
- Abstract(参考訳): パッチベースの攻撃は、誤分類を引き起こす入力に認識できるが局所的な変更をもたらす。
現在のパッチベースのブラックボックスアタックの制限は、ターゲットアタックに対してパフォーマンスが悪く、より困難な非ターゲットシナリオであっても、大量のクエリが必要になることだ。
提案したPatchAttackは、クエリ効率が高く、ターゲットと非ターゲットの両方の攻撃のモデルを壊すことができる。
PatchAttackは入力画像に小さなテクスチャパッチを重ね合わせて誤分類を誘導する。
我々はこれらのパッチの外観をクラス固有のテクスチャの辞書によってパラメトリする。
このテクスチャ辞書は、VGGバックボーンから特徴活性化のグラム行列をクラスタリングすることによって学習される。
patchattackは強化学習を用いて各パッチの位置とテクスチャパラメータを最適化する。
我々の実験によると、PatchAttackは幅広いアーキテクチャでImageNetで99%の成功率を達成したが、ターゲット外攻撃では3%、標的攻撃では平均10%しかイメージを処理していない。
さらに,PatchAttackは,最先端の対人防御手法を回避できることを示す。
関連論文リスト
- Semi-supervised 3D Object Detection with PatchTeacher and PillarMix [71.4908268136439]
現在の半教師付き3Dオブジェクト検出法では、教師が学生に擬似ラベルを生成するのが一般的である。
学生に高品質な擬似ラベルを提供するために,部分的なシーン3Dオブジェクト検出に焦点を当てたPatchTeacherを提案する。
本稿では,PatchTeacherの性能向上のために,Patch Normalizer,Quadrant Align,Fovea Selectionの3つの重要なテクニックを紹介する。
論文 参考訳(メタデータ) (2024-07-13T06:58:49Z) - Query-Efficient Decision-based Black-Box Patch Attack [36.043297146652414]
本稿では,クエリ効率の高い決定ベースのパッチアタックに対して,DevoPatchという微分進化アルゴリズムを提案する。
DevoPatchは、パッチ領域とアタック成功率の点で、最先端のブラックボックスパッチ攻撃を上回っている。
本稿では,ViTの脆弱性評価と画像分類を,初めて決定ベースのパッチアタック設定で実施する。
論文 参考訳(メタデータ) (2023-07-02T05:15:43Z) - Suppress with a Patch: Revisiting Universal Adversarial Patch Attacks
against Object Detection [2.577744341648085]
敵のパッチベースの攻撃は、意図的に発生するノイズでニューラルネットワークを騙すことを目的としている。
本研究では,異なるパッチ生成パラメータの詳細な解析を行う。
実験では、トレーニング中にサイズが大きくなる窓にパッチを挿入すると、攻撃強度が著しく向上することが示された。
論文 参考訳(メタデータ) (2022-09-27T12:59:19Z) - Task-agnostic Defense against Adversarial Patch Attacks [25.15948648034204]
対向パッチは、指定された局所領域内に対向画素を注入することにより、誤誘導ニューラルネットワークを攻撃する。
我々は、ホワイトボックスの敵パッチに対するタスク非依存の防御であるPatchZeroを提示する。
本手法は, 良性性能の劣化を伴わずに, SOTAの頑健な精度を実現する。
論文 参考訳(メタデータ) (2022-07-05T03:49:08Z) - Segment and Complete: Defending Object Detectors against Adversarial
Patch Attacks with Robust Patch Detection [142.24869736769432]
敵のパッチ攻撃は最先端の物体検出器に深刻な脅威をもたらす。
パッチ攻撃に対して物体検出器を防御するフレームワークであるSegment and Complete Defense (SAC)を提案する。
SACは、物理的パッチ攻撃の標的攻撃成功率を著しく低減できることを示す。
論文 参考訳(メタデータ) (2021-12-08T19:18:48Z) - PatchGuard++: Efficient Provable Attack Detection against Adversarial
Patches [28.94435153159868]
逆パッチは、制限領域内の画像画素を任意に操作して、モデル誤分類を誘導することができる。
最近の堅牢な防御は、通常、小さな受容フィールドを持つCNNを使用することで、パッチガードフレームワークに従います。
PatchGuardをPatchGuard++に拡張し、敵のパッチ攻撃を確実に検出し、証明可能な堅牢な精度とクリーンな精度を向上します。
論文 参考訳(メタデータ) (2021-04-26T14:22:33Z) - Patch-wise Attack for Fooling Deep Neural Network [153.59832333877543]
我々は,一般的な訓練と防御モデルに対するブラックボックス攻撃であるパッチワイド反復アルゴリズムを提案する。
我々は、防衛モデルで9.2%、通常訓練されたモデルで3.7%、成功率で著しく改善した。
論文 参考訳(メタデータ) (2020-07-14T01:50:22Z) - Bias-based Universal Adversarial Patch Attack for Automatic Check-out [59.355948824578434]
逆の例は、ディープニューラルネットワーク(DNN)を簡単に誤解させる、知覚不能な摂動を持つ入力である。
既存の戦略は強力な一般化能力を持つ敵パッチを生成できなかった。
本稿では,強い一般化能力を持つクラス非依存の普遍的敵パッチを生成するためのバイアスベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-05-19T07:38:54Z) - PatchGuard: A Provably Robust Defense against Adversarial Patches via
Small Receptive Fields and Masking [46.03749650789915]
画像の制限領域内の画素を任意に修正することで、機械学習モデルの誤分類を誘発することを目的としている。
そこで我々はPatchGuardという汎用防衛フレームワークを提案する。このフレームワークは、局所的な敵パッチに対して高い清潔さを維持しつつ、高い堅牢性を達成できる。
論文 参考訳(メタデータ) (2020-05-17T03:38:34Z) - (De)Randomized Smoothing for Certifiable Defense against Patch Attacks [136.79415677706612]
我々は、所定の画像とパッチ攻撃サイズを保証する、パッチ攻撃に対する認証可能な防御を導入する。
本手法はランダム化スムースなロバスト性スキームの幅広いクラスに関係している。
その結果,CIFAR-10およびImageNetに対するパッチ攻撃に対する認証済みの防御技術が確立した。
論文 参考訳(メタデータ) (2020-02-25T08:39:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。