論文の概要: Inconspicuous Adversarial Patches for Fooling Image Recognition Systems
on Mobile Devices
- arxiv url: http://arxiv.org/abs/2106.15202v1
- Date: Tue, 29 Jun 2021 09:39:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-30 15:45:13.617656
- Title: Inconspicuous Adversarial Patches for Fooling Image Recognition Systems
on Mobile Devices
- Title(参考訳): モバイルデバイス上の画像認識システムにおける不明瞭な逆パッチ
- Authors: Tao Bai, Jinqi Luo, Jun Zhao
- Abstract要約: 敵パッチと呼ばれる敵の例の変種は、強力な攻撃能力のために研究者の注意を引き付けている。
1枚の画像で逆パッチを生成する手法を提案する。
提案手法は,ホワイトボックス設定における強力な攻撃能力とブラックボックス設定における優れた転送性を示す。
- 参考スコア(独自算出の注目度): 8.437172062224034
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning based image recognition systems have been widely deployed on
mobile devices in today's world. In recent studies, however, deep learning
models are shown vulnerable to adversarial examples. One variant of adversarial
examples, called adversarial patch, draws researchers' attention due to its
strong attack abilities. Though adversarial patches achieve high attack success
rates, they are easily being detected because of the visual inconsistency
between the patches and the original images. Besides, it usually requires a
large amount of data for adversarial patch generation in the literature, which
is computationally expensive and time-consuming. To tackle these challenges, we
propose an approach to generate inconspicuous adversarial patches with one
single image. In our approach, we first decide the patch locations basing on
the perceptual sensitivity of victim models, then produce adversarial patches
in a coarse-to-fine way by utilizing multiple-scale generators and
discriminators. The patches are encouraged to be consistent with the background
images with adversarial training while preserving strong attack abilities. Our
approach shows the strong attack abilities in white-box settings and the
excellent transferability in black-box settings through extensive experiments
on various models with different architectures and training methods. Compared
to other adversarial patches, our adversarial patches hold the most negligible
risks to be detected and can evade human observations, which is supported by
the illustrations of saliency maps and results of user evaluations. Lastly, we
show that our adversarial patches can be applied in the physical world.
- Abstract(参考訳): ディープラーニングに基づく画像認識システムは、今日の世界のモバイルデバイスに広くデプロイされている。
しかし、近年の研究では、ディープラーニングモデルは敵の例に弱いことが示されている。
敵パッチと呼ばれる敵の例の変種は、強力な攻撃能力のために研究者の注意を引き付けている。
対向パッチは高い攻撃成功率を達成するが、パッチと元の画像との視覚的矛盾により容易に検出される。
さらに、通常、文学における敵対的なパッチ生成のために大量のデータが必要であり、計算コストが高く、時間がかかる。
これらの課題に取り組むため,我々は1つの画像で目立たない逆境パッチを生成する手法を提案する。
本手法では,まず,被害者モデルの知覚感度に基づくパッチ配置を決定し,複数スケールのジェネレータと判別器を用いて,粗い対極のパッチを生成する。
パッチは、強力な攻撃能力を保ちながら、敵の訓練を受けた背景画像と整合することが推奨される。
提案手法は,ホワイトボックス設定における強力な攻撃能力と,ブラックボックス設定における優れた転送性を示す。
他の敵のパッチと比較して、我々の敵のパッチは検出すべき最も無視できるリスクを保持しており、人的観察を避けることができる。
最後に,我々の逆パッチは物理的世界に適用可能であることを示す。
関連論文リスト
- Towards Robust Image Stitching: An Adaptive Resistance Learning against
Compatible Attacks [66.98297584796391]
画像縫合は、様々な視点から捉えた画像をシームレスに単一の視野画像に統合する。
一対の撮像画像が与えられたとき、人間の視覚システムに気づかない微妙な摂動と歪みは、対応の一致を攻撃しがちである。
本稿では,敵対的攻撃に対する画像縫合の堅牢性向上に向けた最初の試みについて述べる。
論文 参考訳(メタデータ) (2024-02-25T02:36:33Z) - Task-agnostic Defense against Adversarial Patch Attacks [25.15948648034204]
対向パッチは、指定された局所領域内に対向画素を注入することにより、誤誘導ニューラルネットワークを攻撃する。
我々は、ホワイトボックスの敵パッチに対するタスク非依存の防御であるPatchZeroを提示する。
本手法は, 良性性能の劣化を伴わずに, SOTAの頑健な精度を実現する。
論文 参考訳(メタデータ) (2022-07-05T03:49:08Z) - Empirical Evaluation of Physical Adversarial Patch Attacks Against
Overhead Object Detection Models [2.2588953434934416]
逆パッチ(Adversarial patch)は、ニューラルネットワークベースのコンピュータビジョンモデルに悪用されたイメージである。
近年の研究では、これらの攻撃が物理的世界への移動に成功できることが示されている。
我々はさらに、より困難な条件下で、物理的世界における敵パッチ攻撃の有効性を検証した。
論文 参考訳(メタデータ) (2022-06-25T20:05:11Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - You Cannot Easily Catch Me: A Low-Detectable Adversarial Patch for
Object Detectors [12.946967210071032]
敵対的パッチは、顔認識システム、監視システム、自動運転車を騙すことができる。
既存のほとんどの敵パッチは、敵パッチ検出器によって外され、無効化され、拒否される。
本稿では,テクスチャに一貫性のある対向パッチで物体検出器を攻撃する新しい手法,低検出可能な対向パッチを提案する。
論文 参考訳(メタデータ) (2021-09-30T14:47:29Z) - Learning Transferable 3D Adversarial Cloaks for Deep Trained Detectors [72.7633556669675]
本稿では,人間の3dメッシュ上の攻撃パッチを訓練するパッチベースの攻撃パイプラインを提案する。
既存のadversarial patchとは異なり、我々の新しい3dadversarial patchは、さまざまなビューの下で堅牢に最先端の深層物体検出器を騙すことができる。
論文 参考訳(メタデータ) (2021-04-22T14:36:08Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - Generating Adversarial yet Inconspicuous Patches with a Single Image [15.217367754000913]
そこで本研究では, 対角的かつ不明瞭なパッチを単一画像で生成する手法を提案する。
提案手法では,複数スケールのジェネレータと識別器を用いて,逆パッチを粗大な方法で生成する。
我々のap-proachは、ホワイトボックスとブラックボックスの両方で強力な攻撃能力を示している。
論文 参考訳(メタデータ) (2020-09-21T11:56:01Z) - Bias-based Universal Adversarial Patch Attack for Automatic Check-out [59.355948824578434]
逆の例は、ディープニューラルネットワーク(DNN)を簡単に誤解させる、知覚不能な摂動を持つ入力である。
既存の戦略は強力な一般化能力を持つ敵パッチを生成できなかった。
本稿では,強い一般化能力を持つクラス非依存の普遍的敵パッチを生成するためのバイアスベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-05-19T07:38:54Z) - Adversarial Training against Location-Optimized Adversarial Patches [84.96938953835249]
反対のパッチ: 明らかに見えますが 反対に作られた長方形のパッチです
まず、画像内の位置を積極的に最適化しながら、相手パッチを得るための実践的なアプローチを考案する。
CIFAR10とGTSRBでは,これらの位置最適化された対向パッチに対して対向トレーニングを適用し,ロバスト性を著しく向上した。
論文 参考訳(メタデータ) (2020-05-05T16:17:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。