論文の概要: Breaking the Illusion: Real-world Challenges for Adversarial Patches in Object Detection
- arxiv url: http://arxiv.org/abs/2410.19863v1
- Date: Wed, 23 Oct 2024 11:16:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-29 16:01:31.904031
- Title: Breaking the Illusion: Real-world Challenges for Adversarial Patches in Object Detection
- Title(参考訳): 幻覚を破る: 物体検出における敵パッチの現実的挑戦
- Authors: Jakob Shack, Katarina Petrovic, Olga Saukh,
- Abstract要約: 敵対的攻撃は、機械学習システムの堅牢性と信頼性に重大な脅威をもたらす。
本研究では,物理世界におけるYOLOオブジェクト検出ネットワークにおける逆パッチの性能について検討した。
- 参考スコア(独自算出の注目度): 3.4233698915405544
- License:
- Abstract: Adversarial attacks pose a significant threat to the robustness and reliability of machine learning systems, particularly in computer vision applications. This study investigates the performance of adversarial patches for the YOLO object detection network in the physical world. Two attacks were tested: a patch designed to be placed anywhere within the scene - global patch, and another patch intended to partially overlap with specific object targeted for removal from detection - local patch. Various factors such as patch size, position, rotation, brightness, and hue were analyzed to understand their impact on the effectiveness of the adversarial patches. The results reveal a notable dependency on these parameters, highlighting the challenges in maintaining attack efficacy in real-world conditions. Learning to align digitally applied transformation parameters with those measured in the real world still results in up to a 64\% discrepancy in patch performance. These findings underscore the importance of understanding environmental influences on adversarial attacks, which can inform the development of more robust defenses for practical machine learning applications.
- Abstract(参考訳): 敵対的攻撃は、特にコンピュータビジョンアプリケーションにおいて、機械学習システムの堅牢性と信頼性に重大な脅威をもたらす。
本研究では,物理世界におけるYOLOオブジェクト検出ネットワークにおける逆パッチの性能について検討した。
2つの攻撃がテストされた。シーン内のどこでも配置されるように設計されたパッチ - グローバルパッチ - と、検出から削除することを目的とした特定のオブジェクト – ローカルパッチ – と部分的に重複することを意図した別のパッチ – だ。
パッチサイズ, 位置, 回転, 明るさ, 色調などの諸要因を解析し, 敵パッチの有効性について検討した。
その結果、これらのパラメータへの顕著な依存が明らかとなり、実環境における攻撃効果を維持する上での課題が浮き彫りになった。
デジタル適用された変換パラメータを実世界で測定したパラメータと整合させる学習は、パッチのパフォーマンスにおいて最大64倍の差が生じる。
これらの知見は、現実的な機械学習アプリケーションのためのより堅牢な防御を開発する上で、敵攻撃に対する環境の影響を理解することの重要性を浮き彫りにしている。
関連論文リスト
- Benchmarking Adversarial Patch Against Aerial Detection [11.591143898488312]
適応パッチに基づく新しい物理攻撃(AP-PA)フレームワークを提案する。
AP-PAは、物理力学と様々なスケールに適応する逆パッチを生成する。
航空探知作業における敵パッチの攻撃効果を評価するため, 包括的, 一貫性, 厳密なベンチマークを最初に確立した。
論文 参考訳(メタデータ) (2022-10-30T07:55:59Z) - Defending From Physically-Realizable Adversarial Attacks Through
Internal Over-Activation Analysis [61.68061613161187]
Z-Maskは、敵の攻撃に対する畳み込みネットワークの堅牢性を改善するための堅牢で効果的な戦略である。
提示されたディフェンスは、入力画像中の対向対象に対応する画素を検出し、隠蔽するために、内部ネットワーク機能で実行される特定のZスコア解析に依存する。
追加の実験では、Z-Maskは防衛対応攻撃に対して堅牢であることが示された。
論文 参考訳(メタデータ) (2022-03-14T17:41:46Z) - ObjectSeeker: Certifiably Robust Object Detection against Patch Hiding
Attacks via Patch-agnostic Masking [95.6347501381882]
物体探知機は物理的世界のパッチ隠蔽攻撃に弱いことが判明した。
我々は,堅牢なオブジェクト検出器を構築するためのフレームワークとしてObjectSeekerを提案する。
論文 参考訳(メタデータ) (2022-02-03T19:34:25Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - Segment and Complete: Defending Object Detectors against Adversarial
Patch Attacks with Robust Patch Detection [142.24869736769432]
敵のパッチ攻撃は最先端の物体検出器に深刻な脅威をもたらす。
パッチ攻撃に対して物体検出器を防御するフレームワークであるSegment and Complete Defense (SAC)を提案する。
SACは、物理的パッチ攻撃の標的攻撃成功率を著しく低減できることを示す。
論文 参考訳(メタデータ) (2021-12-08T19:18:48Z) - Adversarial Attacks in a Multi-view Setting: An Empirical Study of the
Adversarial Patches Inter-view Transferability [3.1542695050861544]
敵攻撃は、検知器を騙す可能性のある入力への加算ノイズからなる。
最近の実世界の印刷可能な敵パッチは、最先端のニューラルネットワークに対して効果的であることが証明された。
視角が対向パッチの有効性に及ぼす影響について検討した。
論文 参考訳(メタデータ) (2021-10-10T19:59:28Z) - DPA: Learning Robust Physical Adversarial Camouflages for Object
Detectors [5.598600329573922]
そこで本研究では,Dense Proposals Attack (DPA) を提案し,検出器の頑健で物理的,ターゲットとした対向カモフラージュを学習する。
カモフラージュは、任意の視点と異なる照明条件下で撮影されたとき、敵対的であり続けるため、頑丈である。
We build a virtual 3D scene using the Unity Simulation engine to evaluate fair and reproducally different physical attack。
論文 参考訳(メタデータ) (2021-09-01T00:18:17Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - The Translucent Patch: A Physical and Universal Attack on Object
Detectors [48.31712758860241]
最先端の物体検出器を馬鹿にする非接触の物理パッチを提案する。
パッチの主な目標は、選択されたターゲットクラスのすべてのインスタンスを隠すことです。
我々のパッチは、すべてのストップサインインスタンスの42.27%の検出を阻止できた。
論文 参考訳(メタデータ) (2020-12-23T07:47:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。