論文の概要: Empirical Evaluation of Physical Adversarial Patch Attacks Against
Overhead Object Detection Models
- arxiv url: http://arxiv.org/abs/2206.12725v1
- Date: Sat, 25 Jun 2022 20:05:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-28 15:14:30.496183
- Title: Empirical Evaluation of Physical Adversarial Patch Attacks Against
Overhead Object Detection Models
- Title(参考訳): オーバーヘッド物体検出モデルに対する物理的逆パッチ攻撃の実証評価
- Authors: Gavin S. Hartnett, Li Ang Zhang, Caolionn O'Connell, Andrew J. Lohn,
Jair Aguirre
- Abstract要約: 逆パッチ(Adversarial patch)は、ニューラルネットワークベースのコンピュータビジョンモデルに悪用されたイメージである。
近年の研究では、これらの攻撃が物理的世界への移動に成功できることが示されている。
我々はさらに、より困難な条件下で、物理的世界における敵パッチ攻撃の有効性を検証した。
- 参考スコア(独自算出の注目度): 2.2588953434934416
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial patches are images designed to fool otherwise well-performing
neural network-based computer vision models. Although these attacks were
initially conceived of and studied digitally, in that the raw pixel values of
the image were perturbed, recent work has demonstrated that these attacks can
successfully transfer to the physical world. This can be accomplished by
printing out the patch and adding it into scenes of newly captured images or
video footage. In this work we further test the efficacy of adversarial patch
attacks in the physical world under more challenging conditions. We consider
object detection models trained on overhead imagery acquired through aerial or
satellite cameras, and we test physical adversarial patches inserted into
scenes of a desert environment. Our main finding is that it is far more
difficult to successfully implement the adversarial patch attacks under these
conditions than in the previously considered conditions. This has important
implications for AI safety as the real-world threat posed by adversarial
examples may be overstated.
- Abstract(参考訳): adversarial patchは、ニューラルネットワークベースのコンピュータビジョンモデルを騙すように設計されたイメージである。
これらの攻撃は当初デジタル化され研究されていたが、画像の生のピクセル値が乱れていたため、近年の研究では、これらの攻撃が物理的世界にうまく移行できることが示されている。
これはパッチをプリントアウトして、新たに撮影した画像やビデオのシーンに追加することで実現できる。
本研究では,より困難な条件下で,物理的世界における敵対的パッチ攻撃の有効性をさらに検証する。
航空機や衛星カメラで撮影した頭上画像に基づく物体検出モデルについて検討し,砂漠環境のシーンに挿入された物理的敵パッチをテストした。
我々の主な発見は、従来検討されていた状況よりも、これらの条件下で敵パッチ攻撃をうまく実施することがはるかに難しいことである。
これはAIの安全性に重要な意味を持ち、敵の例によって引き起こされる現実世界の脅威が過大評価される可能性がある。
関連論文リスト
- Towards Robust Image Stitching: An Adaptive Resistance Learning against
Compatible Attacks [66.98297584796391]
画像縫合は、様々な視点から捉えた画像をシームレスに単一の視野画像に統合する。
一対の撮像画像が与えられたとき、人間の視覚システムに気づかない微妙な摂動と歪みは、対応の一致を攻撃しがちである。
本稿では,敵対的攻撃に対する画像縫合の堅牢性向上に向けた最初の試みについて述べる。
論文 参考訳(メタデータ) (2024-02-25T02:36:33Z) - Adversarial Camera Patch: An Effective and Robust Physical-World Attack
on Object Detectors [0.0]
研究者たちはパッチベースの物理的攻撃を探求していますが、従来のアプローチは効果的ですが、多くの場合、ターゲットオブジェクトをカバーする顕著なパッチが発生します。
近年、カメラベースの物理的攻撃が出現し、カメラパッチを活用してステルス攻撃を実行している。
この問題に対処するために,ADCP (Adversarial Camera Patch) を提案する。
論文 参考訳(メタデータ) (2023-12-11T06:56:50Z) - AdvGen: Physical Adversarial Attack on Face Presentation Attack
Detection Systems [17.03646903905082]
敵対的攻撃が注目を集めており、認識システムの学習戦略をデジタルで欺こうとしている。
本稿では,物理世界のシナリオにおいて,顔認証システムの逆画像に対する脆弱性を実証する。
本稿では,自動生成支援ネットワークであるAdvGenを提案し,印刷・再生攻撃をシミュレートし,最先端のPADを騙すことのできる逆画像を生成する。
論文 参考訳(メタデータ) (2023-11-20T13:28:42Z) - CBA: Contextual Background Attack against Optical Aerial Detection in
the Physical World [8.826711009649133]
パッチベースの物理的攻撃はますます懸念を喚起している。
既存の手法のほとんどは地上で捕獲された標的を隠蔽することに焦点を当てており、これらの手法のいくつかは単に空中探知機を欺くように拡張されている。
本研究では,空中検出に対する新たな物理的攻撃フレームワークであるコンテキスト背景攻撃(CBA)を提案する。
論文 参考訳(メタデータ) (2023-02-27T05:10:27Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - Segment and Complete: Defending Object Detectors against Adversarial
Patch Attacks with Robust Patch Detection [142.24869736769432]
敵のパッチ攻撃は最先端の物体検出器に深刻な脅威をもたらす。
パッチ攻撃に対して物体検出器を防御するフレームワークであるSegment and Complete Defense (SAC)を提案する。
SACは、物理的パッチ攻撃の標的攻撃成功率を著しく低減できることを示す。
論文 参考訳(メタデータ) (2021-12-08T19:18:48Z) - Physical Adversarial Attacks on an Aerial Imagery Object Detector [32.99554861896277]
本研究は,航空画像に対する物理的敵攻撃に関する最初の試みの1つを示す。
本研究では,空域における物体検出装置に対する物理的敵攻撃の有効性を評価するための新しい実験と指標を考案した。
以上の結果から,衛星画像処理のための深層ニューラルネットワークに対する物理的敵攻撃によって引き起こされる触知可能な脅威が示唆された。
論文 参考訳(メタデータ) (2021-08-26T12:53:41Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Inconspicuous Adversarial Patches for Fooling Image Recognition Systems
on Mobile Devices [8.437172062224034]
敵パッチと呼ばれる敵の例の変種は、強力な攻撃能力のために研究者の注意を引き付けている。
1枚の画像で逆パッチを生成する手法を提案する。
提案手法は,ホワイトボックス設定における強力な攻撃能力とブラックボックス設定における優れた転送性を示す。
論文 参考訳(メタデータ) (2021-06-29T09:39:34Z) - Certified Defenses for Adversarial Patches [72.65524549598126]
敵パッチ攻撃は、現実世界のコンピュータビジョンシステムに対する最も実用的な脅威モデルの一つである。
本稿では,パッチアタックに対する認証と実証的防御について検討する。
論文 参考訳(メタデータ) (2020-03-14T19:57:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。