論文の概要: IPatch: A Remote Adversarial Patch
- arxiv url: http://arxiv.org/abs/2105.00113v1
- Date: Fri, 30 Apr 2021 22:34:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-04 14:23:11.280570
- Title: IPatch: A Remote Adversarial Patch
- Title(参考訳): IPatch: リモートの敵パッチ
- Authors: Yisroel Mirsky
- Abstract要約: 本稿では,画像のセマンティクスに対するモデルの認識を変化させる新たなタイプの逆パッチを提案する。
これらのパッチはイメージ内のどこにでも配置でき、パッチから遠く離れた場所の分類や意味を変えることができる。
我々は、パッチが平均で最大93%の成功率で遠隔ターゲット地域の分類を変えることができることを示しています。
- 参考スコア(独自算出の注目度): 4.886053349194068
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Applications such as autonomous vehicles and medical screening use deep
learning models to localize and identify hundreds of objects in a single frame.
In the past, it has been shown how an attacker can fool these models by placing
an adversarial patch within a scene. However, these patches must be placed in
the target location and do not explicitly alter the semantics elsewhere in the
image.
In this paper, we introduce a new type of adversarial patch which alters a
model's perception of an image's semantics. These patches can be placed
anywhere within an image to change the classification or semantics of locations
far from the patch. We call this new class of adversarial examples `remote
adversarial patches' (RAP).
We implement our own RAP called IPatch and perform an in-depth analysis on
image segmentation RAP attacks using five state-of-the-art architectures with
eight different encoders on the CamVid street view dataset. Moreover, we
demonstrate that the attack can be extended to object recognition models with
preliminary results on the popular YOLOv3 model. We found that the patch can
change the classification of a remote target region with a success rate of up
to 93% on average.
- Abstract(参考訳): 自動運転車や医療スクリーニングなどのアプリケーションは、ディープラーニングモデルを使用して、1フレームに数百のオブジェクトをローカライズし、識別する。
過去には、敵のパッチをシーンに配置することで、攻撃者がこれらのモデルを騙す方法が示されている。
しかし、これらのパッチはターゲットの場所に配置されなければならず、イメージの他の部分のセマンティクスを明示的に変更する必要はない。
本稿では,画像のセマンティクスに対するモデルの認識を変化させる,新たなタイプの対角パッチを提案する。
これらのパッチはイメージ内のどこにでも配置でき、パッチから遠く離れた場所の分類や意味を変えることができる。
我々は,この新たな反対例のクラスを,RAP (remote adversarial patch) と呼ぶ。
我々は,IPatchと呼ばれる独自のRAPを実装し,CamVidストリートビューデータセット上に8種類のエンコーダを持つ5つの最先端アーキテクチャを用いて,画像セグメンテーションRAP攻撃の詳細な解析を行う。
さらに,人気のあるyolov3モデルの予備結果を用いて,攻撃を物体認識モデルに拡張できることを実証する。
その結果、パッチは平均93%の成功率でリモートターゲット領域の分類を変えることができることがわかった。
関連論文リスト
- Defending Adversarial Patches via Joint Region Localizing and Inpainting [16.226410937026685]
様々な敵パッチ攻撃に対して,交通標識の分類と検出を行う一連の実験を行った。
入力サンプルを前処理するための「局所化・塗装」機構に基づく新しい防衛手法を提案する。
論文 参考訳(メタデータ) (2023-07-26T15:11:51Z) - Attacking Object Detector Using A Universal Targeted Label-Switch Patch [44.44676276867374]
深層学習に基づく物体検出装置(OD)に対する敵対的攻撃は,近年広く研究されている。
以前の研究では、ターゲットオブジェクトにパッチを適用したODに対する誤分類攻撃は提案されなかった。
我々は,最先端のオブジェクト検出器であるYOLOに対する,新しい,普遍的で,標的とした,ラベルスウィッチ攻撃を提案する。
論文 参考訳(メタデータ) (2022-11-16T12:08:58Z) - Leveraging Local Patch Differences in Multi-Object Scenes for Generative
Adversarial Attacks [48.66027897216473]
マルチオブジェクト(複数支配対象)画像を用いた対向的摂動を生成するための,より実践的な問題に取り組む。
本稿では,複数場面の特徴空間における特徴空間の局所的差を利用した新たな生成的攻撃(ローカルパッチ差(LPD-Attack))を提案する。
提案手法は, 異なるホワイトボックスとブラックボックスの設定で評価した場合, 非常に伝達性の高い摂動を伴うベースライン生成攻撃よりも優れる。
論文 参考訳(メタデータ) (2022-09-20T17:36:32Z) - Task-agnostic Defense against Adversarial Patch Attacks [25.15948648034204]
対向パッチは、指定された局所領域内に対向画素を注入することにより、誤誘導ニューラルネットワークを攻撃する。
我々は、ホワイトボックスの敵パッチに対するタスク非依存の防御であるPatchZeroを提示する。
本手法は, 良性性能の劣化を伴わずに, SOTAの頑健な精度を実現する。
論文 参考訳(メタデータ) (2022-07-05T03:49:08Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - You Cannot Easily Catch Me: A Low-Detectable Adversarial Patch for
Object Detectors [12.946967210071032]
敵対的パッチは、顔認識システム、監視システム、自動運転車を騙すことができる。
既存のほとんどの敵パッチは、敵パッチ検出器によって外され、無効化され、拒否される。
本稿では,テクスチャに一貫性のある対向パッチで物体検出器を攻撃する新しい手法,低検出可能な対向パッチを提案する。
論文 参考訳(メタデータ) (2021-09-30T14:47:29Z) - Inconspicuous Adversarial Patches for Fooling Image Recognition Systems
on Mobile Devices [8.437172062224034]
敵パッチと呼ばれる敵の例の変種は、強力な攻撃能力のために研究者の注意を引き付けている。
1枚の画像で逆パッチを生成する手法を提案する。
提案手法は,ホワイトボックス設定における強力な攻撃能力とブラックボックス設定における優れた転送性を示す。
論文 参考訳(メタデータ) (2021-06-29T09:39:34Z) - A Hierarchical Transformation-Discriminating Generative Model for Few
Shot Anomaly Detection [93.38607559281601]
各トレーニングイメージのマルチスケールパッチ分布をキャプチャする階層的生成モデルを開発した。
この異常スコアは、スケール及び画像領域にわたる正しい変換のパッチベースの投票を集約して得られる。
論文 参考訳(メタデータ) (2021-04-29T17:49:48Z) - Learning Transferable 3D Adversarial Cloaks for Deep Trained Detectors [72.7633556669675]
本稿では,人間の3dメッシュ上の攻撃パッチを訓練するパッチベースの攻撃パイプラインを提案する。
既存のadversarial patchとは異なり、我々の新しい3dadversarial patchは、さまざまなビューの下で堅牢に最先端の深層物体検出器を騙すことができる。
論文 参考訳(メタデータ) (2021-04-22T14:36:08Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - Dynamic Adversarial Patch for Evading Object Detection Models [47.32228513808444]
本研究では,実環境に適用したオブジェクト検出器に対する革新的な攻撃手法を提案する。
本手法では,対象物体上の複数の所定位置に配置される動的対向パッチを用いる。
対象オブジェクトと分類のセマンティック距離を考慮したパッチを生成することで攻撃を改善した。
論文 参考訳(メタデータ) (2020-10-25T08:55:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。