論文の概要: Defending Adversarial Patches via Joint Region Localizing and Inpainting
- arxiv url: http://arxiv.org/abs/2307.14242v1
- Date: Wed, 26 Jul 2023 15:11:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-27 11:58:28.416015
- Title: Defending Adversarial Patches via Joint Region Localizing and Inpainting
- Title(参考訳): ジョイント領域ローカライズとインパインティングによる敵パッチの防御
- Authors: Junwen Chen, Xingxing Wei
- Abstract要約: 様々な敵パッチ攻撃に対して,交通標識の分類と検出を行う一連の実験を行った。
入力サンプルを前処理するための「局所化・塗装」機構に基づく新しい防衛手法を提案する。
- 参考スコア(独自算出の注目度): 16.226410937026685
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks are successfully used in various applications, but show
their vulnerability to adversarial examples. With the development of
adversarial patches, the feasibility of attacks in physical scenes increases,
and the defenses against patch attacks are urgently needed. However, defending
such adversarial patch attacks is still an unsolved problem. In this paper, we
analyse the properties of adversarial patches, and find that: on the one hand,
adversarial patches will lead to the appearance or contextual inconsistency in
the target objects; on the other hand, the patch region will show abnormal
changes on the high-level feature maps of the objects extracted by a backbone
network. Considering the above two points, we propose a novel defense method
based on a ``localizing and inpainting" mechanism to pre-process the input
examples. Specifically, we design an unified framework, where the ``localizing"
sub-network utilizes a two-branch structure to represent the above two aspects
to accurately detect the adversarial patch region in the image. For the
``inpainting" sub-network, it utilizes the surrounding contextual cues to
recover the original content covered by the adversarial patch. The quality of
inpainted images is also evaluated by measuring the appearance consistency and
the effects of adversarial attacks. These two sub-networks are then jointly
trained via an iterative optimization manner. In this way, the ``localizing"
and ``inpainting" modules can interact closely with each other, and thus learn
a better solution. A series of experiments versus traffic sign classification
and detection tasks are conducted to defend against various adversarial patch
attacks.
- Abstract(参考訳): ディープニューラルネットワークは様々なアプリケーションでうまく使われているが、敵の例に対する脆弱性を示している。
敵対的パッチの開発により、物理的シーンにおける攻撃の可能性が高まり、パッチ攻撃に対する防御が緊急に必要となる。
しかし、このような敵パッチ攻撃を防御することは未解決の問題である。
本稿では,敵のパッチの特性を解析し,一方,敵のパッチは対象オブジェクトの出現や文脈的不整合につながり,他方ではパッチ領域はバックボーンネットワークによって抽出されたオブジェクトの高レベル特徴マップに異常な変化を示す。
上記の2点を考慮し、入力例を前処理する ‘`localizing and inpainting' 機構に基づく新たな防御手法を提案する。具体的には、``localizing' サブネットワークが上記の2つの側面を表現し、画像中の敵パッチ領域を正確に検出する、2つの分岐構造を利用する統一フレームワークを設計する。
インパインティング」サブネットワークでは、周囲のコンテキストキューを利用して、敵パッチでカバーされた元のコンテンツを復元する。インパインされた画像の品質は、外見の一貫性と敵攻撃の影響を計測することで評価される。これら2つのサブネットワークは、反復的な最適化方法で共同で訓練される。こうすることで、「ローカライズ」モジュールと「インパインティング」モジュールは、互いに密接に相互作用し、より良いソリューションを学ぶことができる。
様々な敵パッチ攻撃に対して,交通標識の分類と検出を行う一連の実験を行った。
関連論文リスト
- Improving Adversarial Robustness via Decoupled Visual Representation Masking [65.73203518658224]
本稿では,特徴分布の観点から,ロバストな特徴の2つの新しい特性を強調した。
現状の防衛手法は、上記の2つの問題にうまく対処することを目的としている。
具体的には、分離された視覚的表現マスキングに基づく、シンプルだが効果的な防御法を提案する。
論文 参考訳(メタデータ) (2024-06-16T13:29:41Z) - PAD: Patch-Agnostic Defense against Adversarial Patch Attacks [36.865204327754626]
敵パッチ攻撃は現実世界の物体検出装置に重大な脅威をもたらす。
本研究は,敵対的パッチ,意味的独立性,空間的不均一性の2つの特性を示す。
PADは,事前知識や追加訓練を必要としない,新たな逆パッチのローカライゼーションと除去手法である。
論文 参考訳(メタデータ) (2024-04-25T09:32:34Z) - Task-agnostic Defense against Adversarial Patch Attacks [25.15948648034204]
対向パッチは、指定された局所領域内に対向画素を注入することにより、誤誘導ニューラルネットワークを攻撃する。
我々は、ホワイトボックスの敵パッチに対するタスク非依存の防御であるPatchZeroを提示する。
本手法は, 良性性能の劣化を伴わずに, SOTAの頑健な精度を実現する。
論文 参考訳(メタデータ) (2022-07-05T03:49:08Z) - Segment and Complete: Defending Object Detectors against Adversarial
Patch Attacks with Robust Patch Detection [142.24869736769432]
敵のパッチ攻撃は最先端の物体検出器に深刻な脅威をもたらす。
パッチ攻撃に対して物体検出器を防御するフレームワークであるSegment and Complete Defense (SAC)を提案する。
SACは、物理的パッチ攻撃の標的攻撃成功率を著しく低減できることを示す。
論文 参考訳(メタデータ) (2021-12-08T19:18:48Z) - Inconspicuous Adversarial Patches for Fooling Image Recognition Systems
on Mobile Devices [8.437172062224034]
敵パッチと呼ばれる敵の例の変種は、強力な攻撃能力のために研究者の注意を引き付けている。
1枚の画像で逆パッチを生成する手法を提案する。
提案手法は,ホワイトボックス設定における強力な攻撃能力とブラックボックス設定における優れた転送性を示す。
論文 参考訳(メタデータ) (2021-06-29T09:39:34Z) - Robustness Out of the Box: Compositional Representations Naturally
Defend Against Black-Box Patch Attacks [11.429509031463892]
パッチベースの敵攻撃は、誤分類を引き起こす入力に知覚できるが局所的な変化をもたらす。
本研究では,ブラックボックスパッチ攻撃に対する2つの対策について検討する。
敵の訓練は、最先端の位置最適化パッチ攻撃に対する効果が限られていることが判明した。
論文 参考訳(メタデータ) (2020-12-01T15:04:23Z) - Generating Adversarial yet Inconspicuous Patches with a Single Image [15.217367754000913]
そこで本研究では, 対角的かつ不明瞭なパッチを単一画像で生成する手法を提案する。
提案手法では,複数スケールのジェネレータと識別器を用いて,逆パッチを粗大な方法で生成する。
我々のap-proachは、ホワイトボックスとブラックボックスの両方で強力な攻撃能力を示している。
論文 参考訳(メタデータ) (2020-09-21T11:56:01Z) - Patch-wise Attack for Fooling Deep Neural Network [153.59832333877543]
我々は,一般的な訓練と防御モデルに対するブラックボックス攻撃であるパッチワイド反復アルゴリズムを提案する。
我々は、防衛モデルで9.2%、通常訓練されたモデルで3.7%、成功率で著しく改善した。
論文 参考訳(メタデータ) (2020-07-14T01:50:22Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Bias-based Universal Adversarial Patch Attack for Automatic Check-out [59.355948824578434]
逆の例は、ディープニューラルネットワーク(DNN)を簡単に誤解させる、知覚不能な摂動を持つ入力である。
既存の戦略は強力な一般化能力を持つ敵パッチを生成できなかった。
本稿では,強い一般化能力を持つクラス非依存の普遍的敵パッチを生成するためのバイアスベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-05-19T07:38:54Z) - Adversarial Training against Location-Optimized Adversarial Patches [84.96938953835249]
反対のパッチ: 明らかに見えますが 反対に作られた長方形のパッチです
まず、画像内の位置を積極的に最適化しながら、相手パッチを得るための実践的なアプローチを考案する。
CIFAR10とGTSRBでは,これらの位置最適化された対向パッチに対して対向トレーニングを適用し,ロバスト性を著しく向上した。
論文 参考訳(メタデータ) (2020-05-05T16:17:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。