論文の概要: Attacking by Aligning: Clean-Label Backdoor Attacks on Object Detection
- arxiv url: http://arxiv.org/abs/2307.10487v2
- Date: Sat, 16 Sep 2023 16:42:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 23:06:37.921851
- Title: Attacking by Aligning: Clean-Label Backdoor Attacks on Object Detection
- Title(参考訳): 整合による攻撃: オブジェクト検出に対するクリーンラベルバックドア攻撃
- Authors: Yize Cheng, Wenbin Hu, Minhao Cheng
- Abstract要約: ディープニューラルネットワーク(DNN)は、オブジェクト検出タスクにおいて前例のない成功を収めている。
対象物検出タスクに対するバックドア攻撃は、適切に調査され、調査されていない。
そこで本研究では,オブジェクト検出に対して,接地真理アノテーションを変更することなく,簡易かつ効果的なバックドア攻撃手法を提案する。
- 参考スコア(独自算出の注目度): 24.271795745084123
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have shown unprecedented success in object
detection tasks. However, it was also discovered that DNNs are vulnerable to
multiple kinds of attacks, including Backdoor Attacks. Through the attack, the
attacker manages to embed a hidden backdoor into the DNN such that the model
behaves normally on benign data samples, but makes attacker-specified judgments
given the occurrence of a predefined trigger. Although numerous backdoor
attacks have been experimented on image classification, backdoor attacks on
object detection tasks have not been properly investigated and explored. As
object detection has been adopted as an important module in multiple
security-sensitive applications such as autonomous driving, backdoor attacks on
object detection could pose even more severe threats. Inspired by the inherent
property of deep learning-based object detectors, we propose a simple yet
effective backdoor attack method against object detection without modifying the
ground truth annotations, specifically focusing on the object disappearance
attack and object generation attack. Extensive experiments and ablation studies
prove the effectiveness of our attack on the benchmark object detection dataset
MSCOCO2017, on which we achieve an attack success rate of more than 92% with a
poison rate of only 5%.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、オブジェクト検出タスクにおいて前例のない成功を収めている。
しかし、DNNはバックドア攻撃など、複数の種類の攻撃に対して脆弱であることも判明した。
攻撃を通じて、攻撃者はdnnに隠れたバックドアを埋め込むことができ、モデルが正常なデータサンプル上で振る舞うが、事前に定義されたトリガーが発生すると、攻撃者が特定した判断を行う。
画像分類において多くのバックドア攻撃が実験されているが、対象検出タスクに対するバックドア攻撃は適切に調査されていない。
オブジェクト検出は、自律運転のような複数のセキュリティに敏感なアプリケーションにおいて重要なモジュールとして採用されているため、オブジェクト検出に対するバックドア攻撃はさらに深刻な脅威を引き起こす可能性がある。
深層学習に基づく物体検出装置の特性に着想を得て, 対象検出に対して, 対象の消失攻撃やオブジェクト生成攻撃に特に焦点をあてることなく, 対象検出に有効なバックドア攻撃法を提案する。
広範な実験とアブレーション研究により,ベンチマーク対象検出データセットmscoco2017における攻撃の有効性が証明された。
関連論文リスト
- On the Credibility of Backdoor Attacks Against Object Detectors in the Physical World [27.581277955830746]
アプリケーション設定における物理オブジェクトトリガーによるバックドア攻撃の有効性について検討する。
我々は、MORPHingと呼ばれる新しいコスト効率の高い攻撃方法を構築し、検出タスクのユニークな性質を取り入れた。
私たちは、現実世界のバックドア攻撃の広範なビデオテストセットをリリースしました。
論文 参考訳(メタデータ) (2024-08-22T04:29:48Z) - Mask-based Invisible Backdoor Attacks on Object Detection [0.0]
ディープラーニングモデルは、バックドア攻撃に弱い。
本研究では,マスクベースのアプローチを用いて,物体検出に対する効果的な視覚的バックドア攻撃を提案する。
論文 参考訳(メタデータ) (2024-03-20T12:27:30Z) - SSL-OTA: Unveiling Backdoor Threats in Self-Supervised Learning for Object Detection [8.178238811631093]
我々は、SSL-OTA(Object Transform Attack)と呼ばれるSSLシナリオにおけるオブジェクト検出タスク用に設計された最初のバックドアアタックを提案する。
SSL-OTAは、ターゲットオブジェクトの予測を所望のカテゴリに変更できるトリガーを使用する。
我々は、ベンチマークデータセットに関する広範な実験を行い、提案した攻撃の有効性と潜在的な防御に対する抵抗性を実証した。
論文 参考訳(メタデータ) (2023-12-30T04:21:12Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - FreeEagle: Detecting Complex Neural Trojans in Data-Free Cases [50.065022493142116]
バックドア攻撃とも呼ばれるディープニューラルネットワークに対するトロイの木馬攻撃は、人工知能に対する典型的な脅威である。
FreeEagleは、複雑なバックドア攻撃を効果的に検出できる最初のデータフリーバックドア検出方法である。
論文 参考訳(メタデータ) (2023-02-28T11:31:29Z) - Object-fabrication Targeted Attack for Object Detection [54.10697546734503]
物体検出の敵攻撃は 標的攻撃と未標的攻撃を含む。
新たなオブジェクトファブリケーションターゲット攻撃モードは、特定のターゲットラベルを持つ追加の偽オブジェクトをファブリケートする検出器を誤解させる可能性がある。
論文 参考訳(メタデータ) (2022-12-13T08:42:39Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - BadDet: Backdoor Attacks on Object Detection [42.40418007499009]
対象物検出のための4種類のバックドア攻撃を提案する。
トリガーは、ターゲットクラスのオブジェクトを誤って生成することができる。
単一のトリガーは、イメージ内のすべてのオブジェクトの予測をターゲットクラスに変更することができる。
論文 参考訳(メタデータ) (2022-05-28T18:02:11Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - Rethinking the Trigger of Backdoor Attack [83.98031510668619]
現在、既存のバックドア攻撃のほとんどは、トレーニングとテスト用の画像は同じ外観で、同じエリアに置かれている。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、このような攻撃パラダイムが脆弱であることを示す。
論文 参考訳(メタデータ) (2020-04-09T17:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。