論文の概要: Give Me Your Attention: Dot-Product Attention Considered Harmful for
Adversarial Patch Robustness
- arxiv url: http://arxiv.org/abs/2203.13639v1
- Date: Fri, 25 Mar 2022 13:26:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-28 13:25:33.817382
- Title: Give Me Your Attention: Dot-Product Attention Considered Harmful for
Adversarial Patch Robustness
- Title(参考訳): Dot-Product Attention は対向的パッチロバスト性に悪影響を及ぼす
- Authors: Giulio Lovisotto, Nicole Finnie, Mauricio Munoz, Chaithanya Kumar
Mummadi, Jan Hendrik Metzen
- Abstract要約: 敵のパッチ攻撃に直面する場合、(スケールした)ドットプロダクティビティのグローバルな推論が、重大な脆弱性の原因になり得ることを示す。
本稿では,この脆弱性を的確に狙う敵パッチ作成のための新たな敵目標を提案する。
入力の0.5%を占める敵のパッチは、ImageNet上のViTの0%程度の堅牢な精度をもたらし、MS上のDETRのmAPを3%未満に削減できることがわかった。
- 参考スコア(独自算出の注目度): 15.761916307614145
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural architectures based on attention such as vision transformers are
revolutionizing image recognition. Their main benefit is that attention allows
reasoning about all parts of a scene jointly. In this paper, we show how the
global reasoning of (scaled) dot-product attention can be the source of a major
vulnerability when confronted with adversarial patch attacks. We provide a
theoretical understanding of this vulnerability and relate it to an adversary's
ability to misdirect the attention of all queries to a single key token under
the control of the adversarial patch. We propose novel adversarial objectives
for crafting adversarial patches which target this vulnerability explicitly. We
show the effectiveness of the proposed patch attacks on popular image
classification (ViTs and DeiTs) and object detection models (DETR). We find
that adversarial patches occupying 0.5% of the input can lead to robust
accuracies as low as 0% for ViT on ImageNet, and reduce the mAP of DETR on MS
COCO to less than 3%.
- Abstract(参考訳): 視覚変換器などの注意に基づくニューラルアーキテクチャは、画像認識に革命をもたらしている。
彼らの主な利点は、シーンのすべての部分を共同で推論できることである。
本稿では,(大規模に)dot-product attentionのグローバル推論が,敵のパッチ攻撃に直面する大きな脆弱性の原因となる可能性を示す。
我々は、この脆弱性を理論的に理解し、敵のパッチの制御下で、すべてのクエリの注意を単一のキートークンに誤って向ける能力に関連付ける。
本稿では,この脆弱性を的確に狙う敵パッチ作成のための新たな敵目標を提案する。
提案手法は,一般的な画像分類 (ViTs と DeiTs) とオブジェクト検出モデル (DETR) に対するパッチ攻撃の有効性を示す。
入力の0.5%を占める敵のパッチは、ImageNet上のViTの0%という低い精度につながり、MS COCO上のDETRのmAPを3%以下に抑えることができる。
関連論文リスト
- Towards Robust Image Stitching: An Adaptive Resistance Learning against
Compatible Attacks [66.98297584796391]
画像縫合は、様々な視点から捉えた画像をシームレスに単一の視野画像に統合する。
一対の撮像画像が与えられたとき、人間の視覚システムに気づかない微妙な摂動と歪みは、対応の一致を攻撃しがちである。
本稿では,敵対的攻撃に対する画像縫合の堅牢性向上に向けた最初の試みについて述べる。
論文 参考訳(メタデータ) (2024-02-25T02:36:33Z) - Towards Robust Semantic Segmentation against Patch-based Attack via Attention Refinement [68.31147013783387]
我々は,アテンション機構がパッチベースの敵攻撃に弱いことを観察した。
本稿では,意味的セグメンテーションモデルの堅牢性を改善するために,ロバスト注意機構(RAM)を提案する。
論文 参考訳(メタデータ) (2024-01-03T13:58:35Z) - Generating Visually Realistic Adversarial Patch [5.41648734119775]
高品質の敵パッチは現実的で、位置が無関係で、物理的な世界に展開できる印刷可能でなければならない。
我々は、視覚的に現実的な敵パッチを生成するために、VRAPと呼ばれる効果的な攻撃を提案する。
VRAPは、実際の画像の近傍のパッチを制約して、視覚的現実を確実にし、位置無関係で最も低い位置のパッチを最適化し、トータルバリアンス損失とガンマ変換を採用して、生成したパッチを情報を失うことなく印刷可能にする。
論文 参考訳(メタデータ) (2023-12-05T11:07:39Z) - Query-Efficient Decision-based Black-Box Patch Attack [36.043297146652414]
本稿では,クエリ効率の高い決定ベースのパッチアタックに対して,DevoPatchという微分進化アルゴリズムを提案する。
DevoPatchは、パッチ領域とアタック成功率の点で、最先端のブラックボックスパッチ攻撃を上回っている。
本稿では,ViTの脆弱性評価と画像分類を,初めて決定ベースのパッチアタック設定で実施する。
論文 参考訳(メタデータ) (2023-07-02T05:15:43Z) - Segment and Complete: Defending Object Detectors against Adversarial
Patch Attacks with Robust Patch Detection [142.24869736769432]
敵のパッチ攻撃は最先端の物体検出器に深刻な脅威をもたらす。
パッチ攻撃に対して物体検出器を防御するフレームワークであるSegment and Complete Defense (SAC)を提案する。
SACは、物理的パッチ攻撃の標的攻撃成功率を著しく低減できることを示す。
論文 参考訳(メタデータ) (2021-12-08T19:18:48Z) - PatchGuard++: Efficient Provable Attack Detection against Adversarial
Patches [28.94435153159868]
逆パッチは、制限領域内の画像画素を任意に操作して、モデル誤分類を誘導することができる。
最近の堅牢な防御は、通常、小さな受容フィールドを持つCNNを使用することで、パッチガードフレームワークに従います。
PatchGuardをPatchGuard++に拡張し、敵のパッチ攻撃を確実に検出し、証明可能な堅牢な精度とクリーンな精度を向上します。
論文 参考訳(メタデータ) (2021-04-26T14:22:33Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - PatchGuard: A Provably Robust Defense against Adversarial Patches via
Small Receptive Fields and Masking [46.03749650789915]
画像の制限領域内の画素を任意に修正することで、機械学習モデルの誤分類を誘発することを目的としている。
そこで我々はPatchGuardという汎用防衛フレームワークを提案する。このフレームワークは、局所的な敵パッチに対して高い清潔さを維持しつつ、高い堅牢性を達成できる。
論文 参考訳(メタデータ) (2020-05-17T03:38:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。