論文の概要: Robustness Out of the Box: Compositional Representations Naturally
Defend Against Black-Box Patch Attacks
- arxiv url: http://arxiv.org/abs/2012.00558v1
- Date: Tue, 1 Dec 2020 15:04:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-30 19:48:33.966630
- Title: Robustness Out of the Box: Compositional Representations Naturally
Defend Against Black-Box Patch Attacks
- Title(参考訳): ボックスのロバスト性:ブラックボックスのパッチ攻撃を自然に防御する構成的表現
- Authors: Christian Cosgrove, Adam Kortylewski, Chenglin Yang, Alan Yuille
- Abstract要約: パッチベースの敵攻撃は、誤分類を引き起こす入力に知覚できるが局所的な変化をもたらす。
本研究では,ブラックボックスパッチ攻撃に対する2つの対策について検討する。
敵の訓練は、最先端の位置最適化パッチ攻撃に対する効果が限られていることが判明した。
- 参考スコア(独自算出の注目度): 11.429509031463892
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Patch-based adversarial attacks introduce a perceptible but localized change
to the input that induces misclassification. While progress has been made in
defending against imperceptible attacks, it remains unclear how patch-based
attacks can be resisted. In this work, we study two different approaches for
defending against black-box patch attacks. First, we show that adversarial
training, which is successful against imperceptible attacks, has limited
effectiveness against state-of-the-art location-optimized patch attacks.
Second, we find that compositional deep networks, which have part-based
representations that lead to innate robustness to natural occlusion, are robust
to patch attacks on PASCAL3D+ and the German Traffic Sign Recognition
Benchmark, without adversarial training. Moreover, the robustness of
compositional models outperforms that of adversarially trained standard models
by a large margin. However, on GTSRB, we observe that they have problems
discriminating between similar traffic signs with fine-grained differences. We
overcome this limitation by introducing part-based finetuning, which improves
fine-grained recognition. By leveraging compositional representations, this is
the first work that defends against black-box patch attacks without expensive
adversarial training. This defense is more robust than adversarial training and
more interpretable because it can locate and ignore adversarial patches.
- Abstract(参考訳): パッチベースの敵攻撃は、誤分類を引き起こす入力に知覚できるが局所的な変化をもたらす。
不可避な攻撃に対する防御は進展しているが、パッチベースの攻撃にどう抵抗できるかは不明だ。
本研究では,ブラックボックスパッチ攻撃に対する防御手法を2つ検討した。
第1に,不可避な攻撃に対して有効な攻撃訓練は,最先端のロケーション最適化パッチ攻撃に対して限定的な効果を示す。
第2に,自然閉塞への自然的堅牢性をもたらす部分ベース表現を持つ合成ディープネットワークが,PASCAL3D+およびドイツ交通信号認識ベンチマークに対する攻撃に対して,敵の訓練を伴わずに頑健であることを見出した。
さらに、構成モデルのロバスト性は、敵対的に訓練された標準モデルよりも大きなマージンで優れている。
しかし、GTSRBでは、類似の交通標識と微妙な相違点の区別に問題がある。
この制限を克服するために、微粒子認識を改善する部分ベースファインタニングを導入する。
構成表現を利用することで、高価な敵のトレーニングなしでブラックボックスパッチ攻撃を防御する最初の作業となる。
この防御は敵の訓練よりも堅牢であり、敵のパッチを発見・無視できるため解釈可能である。
関連論文リスト
- Improving Adversarial Robustness via Decoupled Visual Representation Masking [65.73203518658224]
本稿では,特徴分布の観点から,ロバストな特徴の2つの新しい特性を強調した。
現状の防衛手法は、上記の2つの問題にうまく対処することを目的としている。
具体的には、分離された視覚的表現マスキングに基づく、シンプルだが効果的な防御法を提案する。
論文 参考訳(メタデータ) (2024-06-16T13:29:41Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - Game Theoretic Mixed Experts for Combinational Adversarial Machine
Learning [10.368343314144553]
我々は、敵の攻撃と防御をアンサンブルするためのゲーム理論の枠組みを提供する。
本稿では, ランダム化変換, マルチモデル投票方式, 対向検出器アーキテクチャによる防御を目標とする3つの新しい攻撃アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-11-26T21:35:01Z) - Generative Dynamic Patch Attack [6.1863763890100065]
我々は、エンドツーエンドのパッチアタックアルゴリズム、Generative Dynamic Patch Attack (GDPA)を提案する。
GDPAは、各入力画像に対して、パッチパターンとパッチ位置の両方を逆向きに生成する。
VGGFace、Traffic Sign、ImageNetの実験によると、GDPAは最先端のパッチ攻撃よりも高い攻撃成功率を達成する。
論文 参考訳(メタデータ) (2021-11-08T04:15:34Z) - Adversarial training may be a double-edged sword [50.09831237090801]
深層ネットワークの決定境界における敵対的トレーニングの幾らかの幾何学的結果が、ある種のブラックボックス攻撃のエッジとなることを示す。
特に、敵の訓練がホワイトボックスシナリオのロバスト性を大幅に改善する効果的な方法であることを示すために、ロバストネスゲインと呼ばれる指標を定義するが、より現実的な意思決定ベースのブラックボックス攻撃に対して、そのようなロバストネスゲインを提供することはできない。
論文 参考訳(メタデータ) (2021-07-24T19:09:16Z) - Grey-box Adversarial Attack And Defence For Sentiment Classification [19.466940655682727]
感情分類のためのグレーボックスの敵対攻撃と防御フレームワークを紹介します。
敵攻撃と防御のための識別性, ラベル保存, 入力再構成の課題を, 1つの統合された枠組みで解決する。
論文 参考訳(メタデータ) (2021-03-22T04:05:17Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Adversarial Feature Desensitization [12.401175943131268]
本稿では,ドメイン適応分野からの洞察を基盤とした,対向ロバスト性に対する新しいアプローチを提案する。
提案手法は,入力の逆方向の摂動に対して不変な特徴を学習することを目的として,AFD(Adversarial Feature Desensitization)と呼ばれる。
論文 参考訳(メタデータ) (2020-06-08T14:20:02Z) - Adversarial Training against Location-Optimized Adversarial Patches [84.96938953835249]
反対のパッチ: 明らかに見えますが 反対に作られた長方形のパッチです
まず、画像内の位置を積極的に最適化しながら、相手パッチを得るための実践的なアプローチを考案する。
CIFAR10とGTSRBでは,これらの位置最適化された対向パッチに対して対向トレーニングを適用し,ロバスト性を著しく向上した。
論文 参考訳(メタデータ) (2020-05-05T16:17:00Z) - Certified Defenses for Adversarial Patches [72.65524549598126]
敵パッチ攻撃は、現実世界のコンピュータビジョンシステムに対する最も実用的な脅威モデルの一つである。
本稿では,パッチアタックに対する認証と実証的防御について検討する。
論文 参考訳(メタデータ) (2020-03-14T19:57:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。