論文の概要: Random Position Adversarial Patch for Vision Transformers
- arxiv url: http://arxiv.org/abs/2307.04066v1
- Date: Sun, 9 Jul 2023 00:08:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-11 15:39:19.569929
- Title: Random Position Adversarial Patch for Vision Transformers
- Title(参考訳): 視覚トランスフォーマーのためのランダム位置反転パッチ
- Authors: Mingzhen Shao
- Abstract要約: 本稿では,敵対パッチ(G-Patch)を生成する新しい手法を提案する。
勾配を用いてパッチを直接最適化する代わりに、GANのような構造を用いて逆パッチを生成する。
実験は、デジタルおよび物理世界のシナリオにおいて、ビジョントランスフォーマーに対する普遍的な攻撃を達成するための敵パッチの有効性を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Previous studies have shown the vulnerability of vision transformers to
adversarial patches, but these studies all rely on a critical assumption: the
attack patches must be perfectly aligned with the patches used for linear
projection in vision transformers. Due to this stringent requirement, deploying
adversarial patches for vision transformers in the physical world becomes
impractical, unlike their effectiveness on CNNs. This paper proposes a novel
method for generating an adversarial patch (G-Patch) that overcomes the
alignment constraint, allowing the patch to launch a targeted attack at any
position within the field of view. Specifically, instead of directly optimizing
the patch using gradients, we employ a GAN-like structure to generate the
adversarial patch. Our experiments show the effectiveness of the adversarial
patch in achieving universal attacks on vision transformers, both in digital
and physical-world scenarios. Additionally, further analysis reveals that the
generated adversarial patch exhibits robustness to brightness restriction,
color transfer, and random noise. Real-world attack experiments validate the
effectiveness of the G-Patch to launch robust attacks even under some very
challenging conditions.
- Abstract(参考訳): 以前の研究では、視覚トランスフォーマーが敵のパッチに脆弱性があることが示されているが、これらの研究はすべて重要な仮定に依存している。
この厳密な要件により、視覚トランスフォーマーの物理的世界での対向パッチの展開は、cnnでの有効性とは異なり、現実的ではない。
本稿では、アライメント制約を克服し、視野内の任意の位置に標的攻撃を発射できる敵パッチ(G-Patch)を生成する新しい手法を提案する。
具体的には、勾配を使ってパッチを直接最適化するのではなく、GANのような構造を用いて逆パッチを生成する。
本実験は,デジタルおよび物理世界のシナリオにおいて,視覚トランスフォーマーに対するユニバーサルアタックを実現する上で,敵パッチの有効性を示す。
さらに、さらに分析した結果、生成した対向パッチは、輝度制限、色移動、ランダムノイズに対する堅牢性を示すことが明らかとなった。
実世界の攻撃実験は、非常に困難な条件下でも堅牢な攻撃を発射するためのGパッチの有効性を検証する。
関連論文リスト
- Environmental Matching Attack Against Unmanned Aerial Vehicles Object Detection [37.77615360932841]
無人航空機の物体検出技術はディープニューラルネットワーク(DNN)に依存している
UAV領域の既存のアルゴリズムによって生成された敵パッチは、敵パッチの自然性にはほとんど注意を払わない。
本研究では,環境マッチング攻撃(EMA)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-13T09:56:57Z) - Generating Visually Realistic Adversarial Patch [5.41648734119775]
高品質の敵パッチは現実的で、位置が無関係で、物理的な世界に展開できる印刷可能でなければならない。
我々は、視覚的に現実的な敵パッチを生成するために、VRAPと呼ばれる効果的な攻撃を提案する。
VRAPは、実際の画像の近傍のパッチを制約して、視覚的現実を確実にし、位置無関係で最も低い位置のパッチを最適化し、トータルバリアンス損失とガンマ変換を採用して、生成したパッチを情報を失うことなく印刷可能にする。
論文 参考訳(メタデータ) (2023-12-05T11:07:39Z) - Attention Deficit is Ordered! Fooling Deformable Vision Transformers
with Collaborative Adversarial Patches [3.4673556247932225]
変形可能な視覚変換器は、注意モデリングの複雑さを著しく低減する。
最近の研究は、従来の視覚変換器に対する敵攻撃を実証している。
我々は,対象のパッチに注意を向けるようにソースパッチが操作する新たなコラボレーティブアタックを開発する。
論文 参考訳(メタデータ) (2023-11-21T17:55:46Z) - Defending Against Person Hiding Adversarial Patch Attack with a
Universal White Frame [28.128458352103543]
高性能物体検出ネットワークは、敵のパッチ攻撃に対して脆弱である。
人身攻撃は、多くの安全クリティカルなアプリケーションにおいて深刻な問題として浮上している。
防御パターンを最適化することで人身攻撃を緩和する新しい防衛戦略を提案する。
論文 参考訳(メタデータ) (2022-04-27T15:18:08Z) - Segment and Complete: Defending Object Detectors against Adversarial
Patch Attacks with Robust Patch Detection [142.24869736769432]
敵のパッチ攻撃は最先端の物体検出器に深刻な脅威をもたらす。
パッチ攻撃に対して物体検出器を防御するフレームワークであるSegment and Complete Defense (SAC)を提案する。
SACは、物理的パッチ攻撃の標的攻撃成功率を著しく低減できることを示す。
論文 参考訳(メタデータ) (2021-12-08T19:18:48Z) - Towards Transferable Adversarial Attacks on Vision Transformers [110.55845478440807]
視覚変換器(ViT)は、コンピュータビジョンの一連のタスクにおいて印象的なパフォーマンスを示してきたが、それでも敵の例に悩まされている。
本稿では、PNA攻撃とPatchOut攻撃を含むデュアルアタックフレームワークを導入し、異なるViT間での対向サンプルの転送性を改善する。
論文 参考訳(メタデータ) (2021-09-09T11:28:25Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Generating Adversarial yet Inconspicuous Patches with a Single Image [15.217367754000913]
そこで本研究では, 対角的かつ不明瞭なパッチを単一画像で生成する手法を提案する。
提案手法では,複数スケールのジェネレータと識別器を用いて,逆パッチを粗大な方法で生成する。
我々のap-proachは、ホワイトボックスとブラックボックスの両方で強力な攻撃能力を示している。
論文 参考訳(メタデータ) (2020-09-21T11:56:01Z) - Bias-based Universal Adversarial Patch Attack for Automatic Check-out [59.355948824578434]
逆の例は、ディープニューラルネットワーク(DNN)を簡単に誤解させる、知覚不能な摂動を持つ入力である。
既存の戦略は強力な一般化能力を持つ敵パッチを生成できなかった。
本稿では,強い一般化能力を持つクラス非依存の普遍的敵パッチを生成するためのバイアスベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-05-19T07:38:54Z) - Adversarial Training against Location-Optimized Adversarial Patches [84.96938953835249]
反対のパッチ: 明らかに見えますが 反対に作られた長方形のパッチです
まず、画像内の位置を積極的に最適化しながら、相手パッチを得るための実践的なアプローチを考案する。
CIFAR10とGTSRBでは,これらの位置最適化された対向パッチに対して対向トレーニングを適用し,ロバスト性を著しく向上した。
論文 参考訳(メタデータ) (2020-05-05T16:17:00Z) - Certified Defenses for Adversarial Patches [72.65524549598126]
敵パッチ攻撃は、現実世界のコンピュータビジョンシステムに対する最も実用的な脅威モデルの一つである。
本稿では,パッチアタックに対する認証と実証的防御について検討する。
論文 参考訳(メタデータ) (2020-03-14T19:57:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。