論文の概要: Adversarial Training against Location-Optimized Adversarial Patches
- arxiv url: http://arxiv.org/abs/2005.02313v2
- Date: Mon, 14 Dec 2020 08:00:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 13:15:40.526546
- Title: Adversarial Training against Location-Optimized Adversarial Patches
- Title(参考訳): 位置最適化型対人パッチに対する対人訓練
- Authors: Sukrut Rao, David Stutz, Bernt Schiele
- Abstract要約: 反対のパッチ: 明らかに見えますが 反対に作られた長方形のパッチです
まず、画像内の位置を積極的に最適化しながら、相手パッチを得るための実践的なアプローチを考案する。
CIFAR10とGTSRBでは,これらの位置最適化された対向パッチに対して対向トレーニングを適用し,ロバスト性を著しく向上した。
- 参考スコア(独自算出の注目度): 84.96938953835249
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks have been shown to be susceptible to adversarial
examples -- small, imperceptible changes constructed to cause
mis-classification in otherwise highly accurate image classifiers. As a
practical alternative, recent work proposed so-called adversarial patches:
clearly visible, but adversarially crafted rectangular patches in images. These
patches can easily be printed and applied in the physical world. While defenses
against imperceptible adversarial examples have been studied extensively,
robustness against adversarial patches is poorly understood. In this work, we
first devise a practical approach to obtain adversarial patches while actively
optimizing their location within the image. Then, we apply adversarial training
on these location-optimized adversarial patches and demonstrate significantly
improved robustness on CIFAR10 and GTSRB. Additionally, in contrast to
adversarial training on imperceptible adversarial examples, our adversarial
patch training does not reduce accuracy.
- Abstract(参考訳): ディープニューラルネットワークは、高度に正確な画像分類器の誤分類を引き起こすために構築された小さな、不可避な変更、敵の例に影響を受けやすいことが示されている。
実用的な代替策として、最近の研究はいわゆる逆パッチ(adversarial patch)を提案した。
これらのパッチは簡単に印刷でき、物理的に応用できる。
不可避な敵の例に対する防御は広く研究されているが、敵のパッチに対する堅牢性はよく分かっていない。
本研究では,まず,画像内の位置を積極的に最適化しながら,敵対パッチを得るための実践的アプローチを考案する。
CIFAR10とGTSRBでは,これらの位置最適化された対向パッチに対して対向トレーニングを適用し,ロバスト性を著しく向上した。
また,認識不能な対人的事例に対する対人的訓練とは対照的に,対人的パッチトレーニングでは精度が低下しない。
関連論文リスト
- Defending Adversarial Patches via Joint Region Localizing and Inpainting [16.226410937026685]
様々な敵パッチ攻撃に対して,交通標識の分類と検出を行う一連の実験を行った。
入力サンプルを前処理するための「局所化・塗装」機構に基づく新しい防衛手法を提案する。
論文 参考訳(メタデータ) (2023-07-26T15:11:51Z) - The Enemy of My Enemy is My Friend: Exploring Inverse Adversaries for
Improving Adversarial Training [72.39526433794707]
敵の訓練とその変種は、敵の例に対抗して最も効果的なアプローチであることが示されている。
本稿では,モデルが類似した出力を生成することを奨励する,新たな対角訓練手法を提案する。
本手法は,最先端のロバスト性および自然な精度を実現する。
論文 参考訳(メタデータ) (2022-11-01T15:24:26Z) - Collaborative Adversarial Training [82.25340762659991]
本研究は, 対人的, 良性的な両例とほぼ区別できない, 協調的な事例が, 対人的訓練の強化に有効であることを示す。
そこで,コラボレーティブ・ディベザリ・トレーニング(CoAT)と呼ばれる新しい手法が提案され,新たな最先端技術が実現された。
論文 参考訳(メタデータ) (2022-05-23T09:41:41Z) - Inconspicuous Adversarial Patches for Fooling Image Recognition Systems
on Mobile Devices [8.437172062224034]
敵パッチと呼ばれる敵の例の変種は、強力な攻撃能力のために研究者の注意を引き付けている。
1枚の画像で逆パッチを生成する手法を提案する。
提案手法は,ホワイトボックス設定における強力な攻撃能力とブラックボックス設定における優れた転送性を示す。
論文 参考訳(メタデータ) (2021-06-29T09:39:34Z) - Towards Defending against Adversarial Examples via Attack-Invariant
Features [147.85346057241605]
ディープニューラルネットワーク(DNN)は敵の雑音に弱い。
敵の強靭性は、敵の例を利用して改善することができる。
目に見えない種類の敵の例に基づいて訓練されたモデルは、一般的に、目に見えない種類の敵の例にうまく一般化できない。
論文 参考訳(メタデータ) (2021-06-09T12:49:54Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z) - Robustness Out of the Box: Compositional Representations Naturally
Defend Against Black-Box Patch Attacks [11.429509031463892]
パッチベースの敵攻撃は、誤分類を引き起こす入力に知覚できるが局所的な変化をもたらす。
本研究では,ブラックボックスパッチ攻撃に対する2つの対策について検討する。
敵の訓練は、最先端の位置最適化パッチ攻撃に対する効果が限られていることが判明した。
論文 参考訳(メタデータ) (2020-12-01T15:04:23Z) - Generating Adversarial yet Inconspicuous Patches with a Single Image [15.217367754000913]
そこで本研究では, 対角的かつ不明瞭なパッチを単一画像で生成する手法を提案する。
提案手法では,複数スケールのジェネレータと識別器を用いて,逆パッチを粗大な方法で生成する。
我々のap-proachは、ホワイトボックスとブラックボックスの両方で強力な攻撃能力を示している。
論文 参考訳(メタデータ) (2020-09-21T11:56:01Z) - Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes [51.31334977346847]
我々は、高ビット平面の情報に基づいて粗い印象を形成するためにネットワークを訓練し、低ビット平面を用いて予測を洗練させる。
異なる量子化画像間で学習した表現に一貫性を付与することにより、ネットワークの対角的ロバスト性が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-04-01T09:31:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。