論文の概要: On the Credibility of Backdoor Attacks Against Object Detectors in the Physical World
- arxiv url: http://arxiv.org/abs/2408.12122v2
- Date: Wed, 30 Oct 2024 05:03:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-08 05:49:00.830437
- Title: On the Credibility of Backdoor Attacks Against Object Detectors in the Physical World
- Title(参考訳): 物理界における物体検出器に対するバックドア攻撃の信頼性について
- Authors: Bao Gia Doan, Dang Quang Nguyen, Callum Lindquist, Paul Montague, Tamas Abraham, Olivier De Vel, Seyit Camtepe, Salil S. Kanhere, Ehsan Abbasnejad, Damith C. Ranasinghe,
- Abstract要約: アプリケーション設定における物理オブジェクトトリガーによるバックドア攻撃の有効性について検討する。
我々は、MORPHingと呼ばれる新しいコスト効率の高い攻撃方法を構築し、検出タスクのユニークな性質を取り入れた。
私たちは、現実世界のバックドア攻撃の広範なビデオテストセットをリリースしました。
- 参考スコア(独自算出の注目度): 27.581277955830746
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Object detectors are vulnerable to backdoor attacks. In contrast to classifiers, detectors possess unique characteristics, architecturally and in task execution; often operating in challenging conditions, for instance, detecting traffic signs in autonomous cars. But, our knowledge dominates attacks against classifiers and tests in the "digital domain". To address this critical gap, we conducted an extensive empirical study targeting multiple detector architectures and two challenging detection tasks in real-world settings: traffic signs and vehicles. Using the diverse, methodically collected videos captured from driving cars and flying drones, incorporating physical object trigger deployments in authentic scenes, we investigated the viability of physical object-triggered backdoor attacks in application settings. Our findings revealed 8 key insights. Importantly, the prevalent "digital" data poisoning method for injecting backdoors into models does not lead to effective attacks against detectors in the real world, although proven effective in classification tasks. We construct a new, cost-efficient attack method, dubbed MORPHING, incorporating the unique nature of detection tasks; ours is remarkably successful in injecting physical object-triggered backdoors, even capable of poisoning triggers with clean label annotations or invisible triggers without diminishing the success of physical object triggered backdoors. We discovered that the defenses curated are ill-equipped to safeguard detectors against such attacks. To underscore the severity of the threat and foster further research, we, for the first time, release an extensive video test set of real-world backdoor attacks. Our study not only establishes the credibility and seriousness of this threat but also serves as a clarion call to the research community to advance backdoor defenses in the context of object detection.
- Abstract(参考訳): 物体検出器はバックドア攻撃に弱い。
分類器とは対照的に、検出器はアーキテクチャ上およびタスク実行時に特有の特性を持ち、しばしば、自動運転車の交通標識を検出するなどの困難な状況で動作している。
しかし、我々の知識は「デジタルドメイン」における分類器やテストに対する攻撃を支配している。
この重要なギャップに対処するため、我々は複数の検出器アーキテクチャを対象とし、実環境における2つの困難な検出タスクである交通標識と車両について広範な実験を行った。
運転車や飛行ドローンから収集した多種多様なビデオを用いて、実際のシーンに物理的なオブジェクトトリガーを配置し、アプリケーション環境における物理的オブジェクトトリガーによるバックドア攻撃の可能性を検証した。
その結果,8つの重要な知見が得られた。
重要なことに、バックドアをモデルに注入する一般的な「デジタル」データ中毒法は、分類タスクで有効であるにもかかわらず、現実世界の検出器に対する効果的な攻撃にはならない。
我々は、MORPHingと呼ばれる新しいコスト効率の高い攻撃方法を構築し、物理オブジェクトトリガーのバックドアを注入することに成功し、物理的オブジェクトトリガーのバックドアの成功を損なうことなく、クリーンなラベルアノテーションや目に見えないトリガーでトリガーを中毒させることに成功した。
このような攻撃に対して検知器を保護するのに、硬化した防御装置が不備であることが判明した。
脅威の深刻さを強調し、さらなる研究を促進するために、私たちは初めて、現実世界のバックドア攻撃の広範なビデオテストセットをリリースしました。
我々の研究は、この脅威の信頼性と真剣さを確立するだけでなく、物体検出の文脈において、バックドア防御を進めるための研究コミュニティへの呼びかけにも役立ちます。
関連論文リスト
- Detector Collapse: Physical-World Backdooring Object Detection to Catastrophic Overload or Blindness in Autonomous Driving [17.637155085620634]
ディテクター・コラプス(英: Detector Collapse、DC)は、オブジェクト検出用に設計された、新しいバックドア攻撃パラダイムである。
DCは、検出器を瞬時に無力化するように設計されている(つまり、検出器の性能が著しく損なわれ、サービス停止で終了する)。
我々は,自然物を利用した新たな中毒対策を導入し,実環境における実践的なバックドアとして機能することを可能にした。
論文 参考訳(メタデータ) (2024-04-17T13:12:14Z) - Mask-based Invisible Backdoor Attacks on Object Detection [0.0]
ディープラーニングモデルは、バックドア攻撃に弱い。
本研究では,マスクベースのアプローチを用いて,物体検出に対する効果的な視覚的バックドア攻撃を提案する。
論文 参考訳(メタデータ) (2024-03-20T12:27:30Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Attacking by Aligning: Clean-Label Backdoor Attacks on Object Detection [24.271795745084123]
ディープニューラルネットワーク(DNN)は、オブジェクト検出タスクにおいて前例のない成功を収めている。
対象物検出タスクに対するバックドア攻撃は、適切に調査され、調査されていない。
そこで本研究では,オブジェクト検出に対して,接地真理アノテーションを変更することなく,簡易かつ効果的なバックドア攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-07-19T22:46:35Z) - FreeEagle: Detecting Complex Neural Trojans in Data-Free Cases [50.065022493142116]
バックドア攻撃とも呼ばれるディープニューラルネットワークに対するトロイの木馬攻撃は、人工知能に対する典型的な脅威である。
FreeEagleは、複雑なバックドア攻撃を効果的に検出できる最初のデータフリーバックドア検出方法である。
論文 参考訳(メタデータ) (2023-02-28T11:31:29Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - An anomaly detection approach for backdoored neural networks: face
recognition as a case study [77.92020418343022]
本稿では,異常検出の原理に基づく新しいバックドアネットワーク検出手法を提案する。
バックドアネットワークの新たなデータセット上で本手法を検証し,完全スコアで検出可能性について報告する。
論文 参考訳(メタデータ) (2022-08-22T12:14:13Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - BadDet: Backdoor Attacks on Object Detection [42.40418007499009]
対象物検出のための4種類のバックドア攻撃を提案する。
トリガーは、ターゲットクラスのオブジェクトを誤って生成することができる。
単一のトリガーは、イメージ内のすべてのオブジェクトの予測をターゲットクラスに変更することができる。
論文 参考訳(メタデータ) (2022-05-28T18:02:11Z) - ObjectSeeker: Certifiably Robust Object Detection against Patch Hiding
Attacks via Patch-agnostic Masking [95.6347501381882]
物体探知機は物理的世界のパッチ隠蔽攻撃に弱いことが判明した。
我々は,堅牢なオブジェクト検出器を構築するためのフレームワークとしてObjectSeekerを提案する。
論文 参考訳(メタデータ) (2022-02-03T19:34:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。