論文の概要: Dynamic Adversarial Patch for Evading Object Detection Models
- arxiv url: http://arxiv.org/abs/2010.13070v1
- Date: Sun, 25 Oct 2020 08:55:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 04:30:07.384954
- Title: Dynamic Adversarial Patch for Evading Object Detection Models
- Title(参考訳): 物体検出モデル回避のための動的逆境パッチ
- Authors: Shahar Hoory and Tzvika Shapira and Asaf Shabtai and Yuval Elovici
- Abstract要約: 本研究では,実環境に適用したオブジェクト検出器に対する革新的な攻撃手法を提案する。
本手法では,対象物体上の複数の所定位置に配置される動的対向パッチを用いる。
対象オブジェクトと分類のセマンティック距離を考慮したパッチを生成することで攻撃を改善した。
- 参考スコア(独自算出の注目度): 47.32228513808444
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent research shows that neural networks models used for computer vision
(e.g., YOLO and Fast R-CNN) are vulnerable to adversarial evasion attacks. Most
of the existing real-world adversarial attacks against object detectors use an
adversarial patch which is attached to the target object (e.g., a carefully
crafted sticker placed on a stop sign). This method may not be robust to
changes in the camera's location relative to the target object; in addition, it
may not work well when applied to nonplanar objects such as cars. In this
study, we present an innovative attack method against object detectors applied
in a real-world setup that addresses some of the limitations of existing
attacks. Our method uses dynamic adversarial patches which are placed at
multiple predetermined locations on a target object. An adversarial learning
algorithm is applied in order to generate the patches used. The dynamic attack
is implemented by switching between optimized patches dynamically, according to
the camera's position (i.e., the object detection system's position). In order
to demonstrate our attack in a real-world setup, we implemented the patches by
attaching flat screens to the target object; the screens are used to present
the patches and switch between them, depending on the current camera location.
Thus, the attack is dynamic and adjusts itself to the situation to achieve
optimal results. We evaluated our dynamic patch approach by attacking the
YOLOv2 object detector with a car as the target object and succeeded in
misleading it in up to 90% of the video frames when filming the car from a wide
viewing angle range. We improved the attack by generating patches that consider
the semantic distance between the target object and its classification. We also
examined the attack's transferability among different car models and were able
to mislead the detector 71% of the time.
- Abstract(参考訳): 最近の研究では、コンピュータビジョンに使用されるニューラルネットワークモデル(例えば、YOLOとFast R-CNN)が敵の回避攻撃に弱いことが示されている。
オブジェクト検出器に対する既存の現実世界の敵意攻撃のほとんどは、ターゲットオブジェクトにアタッチされた敵意パッチ(例えば、停止標識に注意深く作られたステッカー)を使用している。
この方法は、対象物に対してカメラの位置が変化しても堅牢ではないかもしれないし、車のような非平面オブジェクトに適用してもうまく機能しないかもしれない。
本研究では,既存の攻撃の限界に対処する,現実世界で適用された物体検出装置に対する革新的な攻撃手法を提案する。
本手法では,対象物体上の複数の所定位置に配置される動的対向パッチを用いる。
使用するパッチを生成するために、逆学習アルゴリズムを適用する。
動的攻撃は、カメラの位置(オブジェクト検出システムの位置)に応じて、最適化されたパッチを動的に切り替えることで実現される。
実際の設定で攻撃を示すために、ターゲットオブジェクトにフラットスクリーンをアタッチすることでパッチを実装しました。
したがって、攻撃は動的であり、最適な結果を得るために状況に適応する。
対象物として車を用いてyolov2物体検出器を攻撃し,広い視野範囲から撮影する場合,最大90%の映像フレームで誤解を生じさせることで,動的パッチアプローチを評価した。
対象オブジェクトと分類のセマンティック距離を考慮したパッチを生成することで攻撃を改善した。
また、異なる車両モデル間の攻撃の伝達性についても検討し、検知器を71%誤解させることができた。
関連論文リスト
- Transient Adversarial 3D Projection Attacks on Object Detection in Autonomous Driving [15.516055760190884]
本稿では,自律運転シナリオにおける物体検出を対象とする3Dプロジェクション攻撃を提案する。
本研究は, YOLOv3 と Mask R-CNN の物理環境における攻撃効果を示すものである。
論文 参考訳(メタデータ) (2024-09-25T22:27:11Z) - Object-fabrication Targeted Attack for Object Detection [54.10697546734503]
物体検出の敵攻撃は 標的攻撃と未標的攻撃を含む。
新たなオブジェクトファブリケーションターゲット攻撃モードは、特定のターゲットラベルを持つ追加の偽オブジェクトをファブリケートする検出器を誤解させる可能性がある。
論文 参考訳(メタデータ) (2022-12-13T08:42:39Z) - Attacking Object Detector Using A Universal Targeted Label-Switch Patch [44.44676276867374]
深層学習に基づく物体検出装置(OD)に対する敵対的攻撃は,近年広く研究されている。
以前の研究では、ターゲットオブジェクトにパッチを適用したODに対する誤分類攻撃は提案されなかった。
我々は,最先端のオブジェクト検出器であるYOLOに対する,新しい,普遍的で,標的とした,ラベルスウィッチ攻撃を提案する。
論文 参考訳(メタデータ) (2022-11-16T12:08:58Z) - ObjectSeeker: Certifiably Robust Object Detection against Patch Hiding
Attacks via Patch-agnostic Masking [95.6347501381882]
物体探知機は物理的世界のパッチ隠蔽攻撃に弱いことが判明した。
我々は,堅牢なオブジェクト検出器を構築するためのフレームワークとしてObjectSeekerを提案する。
論文 参考訳(メタデータ) (2022-02-03T19:34:25Z) - Segment and Complete: Defending Object Detectors against Adversarial
Patch Attacks with Robust Patch Detection [142.24869736769432]
敵のパッチ攻撃は最先端の物体検出器に深刻な脅威をもたらす。
パッチ攻撃に対して物体検出器を防御するフレームワークであるSegment and Complete Defense (SAC)を提案する。
SACは、物理的パッチ攻撃の標的攻撃成功率を著しく低減できることを示す。
論文 参考訳(メタデータ) (2021-12-08T19:18:48Z) - You Cannot Easily Catch Me: A Low-Detectable Adversarial Patch for
Object Detectors [12.946967210071032]
敵対的パッチは、顔認識システム、監視システム、自動運転車を騙すことができる。
既存のほとんどの敵パッチは、敵パッチ検出器によって外され、無効化され、拒否される。
本稿では,テクスチャに一貫性のある対向パッチで物体検出器を攻撃する新しい手法,低検出可能な対向パッチを提案する。
論文 参考訳(メタデータ) (2021-09-30T14:47:29Z) - The Translucent Patch: A Physical and Universal Attack on Object
Detectors [48.31712758860241]
最先端の物体検出器を馬鹿にする非接触の物理パッチを提案する。
パッチの主な目標は、選択されたターゲットクラスのすべてのインスタンスを隠すことです。
我々のパッチは、すべてのストップサインインスタンスの42.27%の検出を阻止できた。
論文 参考訳(メタデータ) (2020-12-23T07:47:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。