論文の概要: Suppress with a Patch: Revisiting Universal Adversarial Patch Attacks
against Object Detection
- arxiv url: http://arxiv.org/abs/2209.13353v1
- Date: Tue, 27 Sep 2022 12:59:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 15:43:17.221624
- Title: Suppress with a Patch: Revisiting Universal Adversarial Patch Attacks
against Object Detection
- Title(参考訳): Suppress with a Patch: Revisiting Universal Adversarial Patch Attacks against Object Detection
- Authors: Svetlana Pavlitskaya, Jonas Hendl, Sebastian Kleim, Leopold M\"uller,
Fabian Wylczoch and J. Marius Z\"ollner
- Abstract要約: 敵のパッチベースの攻撃は、意図的に発生するノイズでニューラルネットワークを騙すことを目的としている。
本研究では,異なるパッチ生成パラメータの詳細な解析を行う。
実験では、トレーニング中にサイズが大きくなる窓にパッチを挿入すると、攻撃強度が著しく向上することが示された。
- 参考スコア(独自算出の注目度): 2.577744341648085
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial patch-based attacks aim to fool a neural network with an
intentionally generated noise, which is concentrated in a particular region of
an input image. In this work, we perform an in-depth analysis of different
patch generation parameters, including initialization, patch size, and
especially positioning a patch in an image during training. We focus on the
object vanishing attack and run experiments with YOLOv3 as a model under attack
in a white-box setting and use images from the COCO dataset. Our experiments
have shown, that inserting a patch inside a window of increasing size during
training leads to a significant increase in attack strength compared to a fixed
position. The best results were obtained when a patch was positioned randomly
during training, while patch position additionally varied within a batch.
- Abstract(参考訳): 逆パッチベースの攻撃は、意図的に発生するノイズでニューラルネットワークを騙すことを目的としており、入力画像の特定の領域に集中している。
本研究では,初期化,パッチサイズ,特にトレーニング中の画像中のパッチの位置決めなど,さまざまなパッチ生成パラメータの詳細な解析を行う。
我々は、オブジェクトの消滅攻撃に注目し、White-box設定のモデルとしてYOLOv3で実験を行い、COCOデータセットの画像を使用する。
実験では,訓練中にサイズが増大する窓内にパッチを挿入すると,一定位置に比べて攻撃強度が著しく向上することを示した。
トレーニング中にパッチがランダムに位置決めされた場合, パッチ位置はバッチ内で追加的に変化した。
関連論文リスト
- Towards Robust Image Stitching: An Adaptive Resistance Learning against
Compatible Attacks [66.98297584796391]
画像縫合は、様々な視点から捉えた画像をシームレスに単一の視野画像に統合する。
一対の撮像画像が与えられたとき、人間の視覚システムに気づかない微妙な摂動と歪みは、対応の一致を攻撃しがちである。
本稿では,敵対的攻撃に対する画像縫合の堅牢性向上に向けた最初の試みについて述べる。
論文 参考訳(メタデータ) (2024-02-25T02:36:33Z) - Leveraging Local Patch Differences in Multi-Object Scenes for Generative
Adversarial Attacks [48.66027897216473]
マルチオブジェクト(複数支配対象)画像を用いた対向的摂動を生成するための,より実践的な問題に取り組む。
本稿では,複数場面の特徴空間における特徴空間の局所的差を利用した新たな生成的攻撃(ローカルパッチ差(LPD-Attack))を提案する。
提案手法は, 異なるホワイトボックスとブラックボックスの設定で評価した場合, 非常に伝達性の高い摂動を伴うベースライン生成攻撃よりも優れる。
論文 参考訳(メタデータ) (2022-09-20T17:36:32Z) - Task-agnostic Defense against Adversarial Patch Attacks [25.15948648034204]
対向パッチは、指定された局所領域内に対向画素を注入することにより、誤誘導ニューラルネットワークを攻撃する。
我々は、ホワイトボックスの敵パッチに対するタスク非依存の防御であるPatchZeroを提示する。
本手法は, 良性性能の劣化を伴わずに, SOTAの頑健な精度を実現する。
論文 参考訳(メタデータ) (2022-07-05T03:49:08Z) - Segment and Complete: Defending Object Detectors against Adversarial
Patch Attacks with Robust Patch Detection [142.24869736769432]
敵のパッチ攻撃は最先端の物体検出器に深刻な脅威をもたらす。
パッチ攻撃に対して物体検出器を防御するフレームワークであるSegment and Complete Defense (SAC)を提案する。
SACは、物理的パッチ攻撃の標的攻撃成功率を著しく低減できることを示す。
論文 参考訳(メタデータ) (2021-12-08T19:18:48Z) - Patch Attack Invariance: How Sensitive are Patch Attacks to 3D Pose? [7.717537870226507]
我々は、パッチアタックの堅牢性と不変性を評価するために、mAST(Attack Success over Transformations)と呼ばれる新しい指標を開発した。
我々は、カメラに対するパッチの3Dポーズの関数として、攻撃効果に関する重要な定性的な洞察を提供する感度分析を行う。
我々は、外面回転角の程度に依存するパッチアタックの有効性において、基本的なカットオフ限界の存在に関する新たな知見を提供する。
論文 参考訳(メタデータ) (2021-08-16T17:02:38Z) - Dynamic Adversarial Patch for Evading Object Detection Models [47.32228513808444]
本研究では,実環境に適用したオブジェクト検出器に対する革新的な攻撃手法を提案する。
本手法では,対象物体上の複数の所定位置に配置される動的対向パッチを用いる。
対象オブジェクトと分類のセマンティック距離を考慮したパッチを生成することで攻撃を改善した。
論文 参考訳(メタデータ) (2020-10-25T08:55:40Z) - Generating Adversarial yet Inconspicuous Patches with a Single Image [15.217367754000913]
そこで本研究では, 対角的かつ不明瞭なパッチを単一画像で生成する手法を提案する。
提案手法では,複数スケールのジェネレータと識別器を用いて,逆パッチを粗大な方法で生成する。
我々のap-proachは、ホワイトボックスとブラックボックスの両方で強力な攻撃能力を示している。
論文 参考訳(メタデータ) (2020-09-21T11:56:01Z) - Patch-wise Attack for Fooling Deep Neural Network [153.59832333877543]
我々は,一般的な訓練と防御モデルに対するブラックボックス攻撃であるパッチワイド反復アルゴリズムを提案する。
我々は、防衛モデルで9.2%、通常訓練されたモデルで3.7%、成功率で著しく改善した。
論文 参考訳(メタデータ) (2020-07-14T01:50:22Z) - Bias-based Universal Adversarial Patch Attack for Automatic Check-out [59.355948824578434]
逆の例は、ディープニューラルネットワーク(DNN)を簡単に誤解させる、知覚不能な摂動を持つ入力である。
既存の戦略は強力な一般化能力を持つ敵パッチを生成できなかった。
本稿では,強い一般化能力を持つクラス非依存の普遍的敵パッチを生成するためのバイアスベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-05-19T07:38:54Z) - PatchAttack: A Black-box Texture-based Attack with Reinforcement
Learning [31.255179167694887]
パッチベースの攻撃は、誤分類を引き起こす入力に認識できるが局所的な変更をもたらす。
提案したPatchAttackは、クエリ効率が高く、ターゲットと非ターゲットの両方の攻撃のモデルを壊すことができる。
論文 参考訳(メタデータ) (2020-04-12T19:31:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。