論文の概要: Generating Visually Realistic Adversarial Patch
- arxiv url: http://arxiv.org/abs/2312.03030v1
- Date: Tue, 5 Dec 2023 11:07:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-07 17:29:08.901308
- Title: Generating Visually Realistic Adversarial Patch
- Title(参考訳): 視覚的な逆境パッチの生成
- Authors: Xiaosen Wang, Kunyu Wang
- Abstract要約: 高品質の敵パッチは現実的で、位置が無関係で、物理的な世界に展開できる印刷可能でなければならない。
我々は、視覚的に現実的な敵パッチを生成するために、VRAPと呼ばれる効果的な攻撃を提案する。
VRAPは、実際の画像の近傍のパッチを制約して、視覚的現実を確実にし、位置無関係で最も低い位置のパッチを最適化し、トータルバリアンス損失とガンマ変換を採用して、生成したパッチを情報を失うことなく印刷可能にする。
- 参考スコア(独自算出の注目度): 5.41648734119775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) are vulnerable to various types of adversarial
examples, bringing huge threats to security-critical applications. Among these,
adversarial patches have drawn increasing attention due to their good
applicability to fool DNNs in the physical world. However, existing works often
generate patches with meaningless noise or patterns, making it conspicuous to
humans. To address this issue, we explore how to generate visually realistic
adversarial patches to fool DNNs. Firstly, we analyze that a high-quality
adversarial patch should be realistic, position irrelevant, and printable to be
deployed in the physical world. Based on this analysis, we propose an effective
attack called VRAP, to generate visually realistic adversarial patches.
Specifically, VRAP constrains the patch in the neighborhood of a real image to
ensure the visual reality, optimizes the patch at the poorest position for
position irrelevance, and adopts Total Variance loss as well as gamma
transformation to make the generated patch printable without losing
information. Empirical evaluations on the ImageNet dataset demonstrate that the
proposed VRAP exhibits outstanding attack performance in the digital world.
Moreover, the generated adversarial patches can be disguised as the scrawl or
logo in the physical world to fool the deep models without being detected,
bringing significant threats to DNNs-enabled applications.
- Abstract(参考訳): ディープニューラルネットワーク(dnn)は、さまざまなタイプの敵例に対して脆弱であり、セキュリティクリティカルなアプリケーションに大きな脅威をもたらします。
これらのうち、物理的な世界でのDNNを騙すのに十分な適用性のために、敵のパッチが注目を集めている。
しかし、既存の作品はしばしば無意味なノイズやパターンのパッチを生成するため、人間には目立たない。
この問題に対処するために,我々は,視覚的にリアルな敵パッチを生成する方法を探る。
まず,高品質の対向パッチは現実的であり,位置が無関係で,物理的に展開可能な印刷が可能であることを解析する。
この分析に基づいて,視覚的に現実的な敵パッチを生成するために,VRAPと呼ばれる効果的な攻撃を提案する。
具体的には、VRAPは、実際の画像の近傍のパッチを制約し、視覚的現実を確実にし、位置無関係で最も低い位置のパッチを最適化し、トータルバリアンス損失とガンマ変換を採用して、生成したパッチを情報を失うことなく印刷可能にする。
ImageNetデータセットの実証的な評価は、提案したVRAPがデジタル世界で優れた攻撃性能を示すことを示している。
さらに、生成された敵のパッチは物理世界のスクロールやロゴに変装して、ディープモデルを検出せずに騙し、DNN対応アプリケーションに重大な脅威をもたらす。
関連論文リスト
- Towards Robust Image Stitching: An Adaptive Resistance Learning against
Compatible Attacks [66.98297584796391]
画像縫合は、様々な視点から捉えた画像をシームレスに単一の視野画像に統合する。
一対の撮像画像が与えられたとき、人間の視覚システムに気づかない微妙な摂動と歪みは、対応の一致を攻撃しがちである。
本稿では,敵対的攻撃に対する画像縫合の堅牢性向上に向けた最初の試みについて述べる。
論文 参考訳(メタデータ) (2024-02-25T02:36:33Z) - Random Position Adversarial Patch for Vision Transformers [0.0]
本稿では,敵対パッチ(G-Patch)を生成する新しい手法を提案する。
勾配を用いてパッチを直接最適化する代わりに、GANのような構造を用いて逆パッチを生成する。
実験は、デジタルおよび物理世界のシナリオにおいて、ビジョントランスフォーマーに対する普遍的な攻撃を達成するための敵パッチの有効性を示す。
論文 参考訳(メタデータ) (2023-07-09T00:08:34Z) - Task-agnostic Defense against Adversarial Patch Attacks [25.15948648034204]
対向パッチは、指定された局所領域内に対向画素を注入することにより、誤誘導ニューラルネットワークを攻撃する。
我々は、ホワイトボックスの敵パッチに対するタスク非依存の防御であるPatchZeroを提示する。
本手法は, 良性性能の劣化を伴わずに, SOTAの頑健な精度を実現する。
論文 参考訳(メタデータ) (2022-07-05T03:49:08Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Inconspicuous Adversarial Patches for Fooling Image Recognition Systems
on Mobile Devices [8.437172062224034]
敵パッチと呼ばれる敵の例の変種は、強力な攻撃能力のために研究者の注意を引き付けている。
1枚の画像で逆パッチを生成する手法を提案する。
提案手法は,ホワイトボックス設定における強力な攻撃能力とブラックボックス設定における優れた転送性を示す。
論文 参考訳(メタデータ) (2021-06-29T09:39:34Z) - Learning Transferable 3D Adversarial Cloaks for Deep Trained Detectors [72.7633556669675]
本稿では,人間の3dメッシュ上の攻撃パッチを訓練するパッチベースの攻撃パイプラインを提案する。
既存のadversarial patchとは異なり、我々の新しい3dadversarial patchは、さまざまなビューの下で堅牢に最先端の深層物体検出器を騙すことができる。
論文 参考訳(メタデータ) (2021-04-22T14:36:08Z) - Generating Adversarial yet Inconspicuous Patches with a Single Image [15.217367754000913]
そこで本研究では, 対角的かつ不明瞭なパッチを単一画像で生成する手法を提案する。
提案手法では,複数スケールのジェネレータと識別器を用いて,逆パッチを粗大な方法で生成する。
我々のap-proachは、ホワイトボックスとブラックボックスの両方で強力な攻撃能力を示している。
論文 参考訳(メタデータ) (2020-09-21T11:56:01Z) - Bias-based Universal Adversarial Patch Attack for Automatic Check-out [59.355948824578434]
逆の例は、ディープニューラルネットワーク(DNN)を簡単に誤解させる、知覚不能な摂動を持つ入力である。
既存の戦略は強力な一般化能力を持つ敵パッチを生成できなかった。
本稿では,強い一般化能力を持つクラス非依存の普遍的敵パッチを生成するためのバイアスベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-05-19T07:38:54Z) - Adversarial Training against Location-Optimized Adversarial Patches [84.96938953835249]
反対のパッチ: 明らかに見えますが 反対に作られた長方形のパッチです
まず、画像内の位置を積極的に最適化しながら、相手パッチを得るための実践的なアプローチを考案する。
CIFAR10とGTSRBでは,これらの位置最適化された対向パッチに対して対向トレーニングを適用し,ロバスト性を著しく向上した。
論文 参考訳(メタデータ) (2020-05-05T16:17:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。