論文の概要: BadDet: Backdoor Attacks on Object Detection
- arxiv url: http://arxiv.org/abs/2205.14497v1
- Date: Sat, 28 May 2022 18:02:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 14:22:35.961937
- Title: BadDet: Backdoor Attacks on Object Detection
- Title(参考訳): BadDet: オブジェクト検出のバックドア攻撃
- Authors: Shih-Han Chan, Yinpeng Dong, Jun Zhu, Xiaolu Zhang, Jun Zhou
- Abstract要約: 対象物検出のための4種類のバックドア攻撃を提案する。
トリガーは、ターゲットクラスのオブジェクトを誤って生成することができる。
単一のトリガーは、イメージ内のすべてのオブジェクトの予測をターゲットクラスに変更することができる。
- 参考スコア(独自算出の注目度): 42.40418007499009
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models have been deployed in numerous real-world applications
such as autonomous driving and surveillance. However, these models are
vulnerable in adversarial environments. Backdoor attack is emerging as a severe
security threat which injects a backdoor trigger into a small portion of
training data such that the trained model behaves normally on benign inputs but
gives incorrect predictions when the specific trigger appears. While most
research in backdoor attacks focuses on image classification, backdoor attacks
on object detection have not been explored but are of equal importance. Object
detection has been adopted as an important module in various security-sensitive
applications such as autonomous driving. Therefore, backdoor attacks on object
detection could pose severe threats to human lives and properties. We propose
four kinds of backdoor attacks for object detection task: 1) Object Generation
Attack: a trigger can falsely generate an object of the target class; 2)
Regional Misclassification Attack: a trigger can change the prediction of a
surrounding object to the target class; 3) Global Misclassification Attack: a
single trigger can change the predictions of all objects in an image to the
target class; and 4) Object Disappearance Attack: a trigger can make the
detector fail to detect the object of the target class. We develop appropriate
metrics to evaluate the four backdoor attacks on object detection. We perform
experiments using two typical object detection models -- Faster-RCNN and YOLOv3
on different datasets. More crucially, we demonstrate that even fine-tuning on
another benign dataset cannot remove the backdoor hidden in the object
detection model. To defend against these backdoor attacks, we propose Detector
Cleanse, an entropy-based run-time detection framework to identify poisoned
testing samples for any deployed object detector.
- Abstract(参考訳): ディープラーニングモデルは、自動運転や監視など、現実世界のさまざまなアプリケーションにデプロイされている。
しかし、これらのモデルは敵の環境に弱い。
バックドア攻撃は、トレーニングデータの一部にバックドアトリガーを注入する深刻なセキュリティ脅威として現れており、トレーニングされたモデルは正常な入力で振る舞うが、特定のトリガーが現れると誤った予測を与える。
バックドア攻撃は画像分類に焦点が当てられているが、対象物検出に対するバックドア攻撃は検討されていない。
オブジェクト検出は、自動運転のような様々なセキュリティに敏感なアプリケーションにおいて重要なモジュールとして採用されている。
そのため、物体検出に対するバックドア攻撃は人命や財産に深刻な脅威をもたらす可能性がある。
対象物検出のための4種類のバックドア攻撃を提案する。
1) オブジェクト生成攻撃: トリガーはターゲットクラスのオブジェクトを誤って生成することができる。
2 地域過誤分類攻撃:トリガーは、周囲の物体の予測を目標クラスに変更することができる。
3) グローバルミス分類攻撃: 単一のトリガーは、画像内のすべてのオブジェクトの予測をターゲットクラスに変更することができる。
4) オブジェクトの障害攻撃: トリガーは、ターゲットクラスのオブジェクトを検出するのに失敗する可能性がある。
対象物検出に対する4つのバックドア攻撃を評価するための適切な指標を開発した。
我々は、異なるデータセット上で、Faster-RCNNとYOLOv3という2つの典型的なオブジェクト検出モデルを用いて実験を行う。
さらに重要なことは、別の良性データセットを微調整しても、オブジェクト検出モデルに隠されたバックドアを除去できないことを示しています。
このようなバックドア攻撃に対する防御策として,エントロピーをベースとした実行時検出フレームワークである Detector Cleanse を提案する。
関連論文リスト
- On the Credibility of Backdoor Attacks Against Object Detectors in the Physical World [27.581277955830746]
アプリケーション設定における物理オブジェクトトリガーによるバックドア攻撃の有効性について検討する。
我々は、MORPHingと呼ばれる新しいコスト効率の高い攻撃方法を構築し、検出タスクのユニークな性質を取り入れた。
私たちは、現実世界のバックドア攻撃の広範なビデオテストセットをリリースしました。
論文 参考訳(メタデータ) (2024-08-22T04:29:48Z) - Detector Collapse: Physical-World Backdooring Object Detection to Catastrophic Overload or Blindness in Autonomous Driving [17.637155085620634]
ディテクター・コラプス(英: Detector Collapse、DC)は、オブジェクト検出用に設計された、新しいバックドア攻撃パラダイムである。
DCは、検出器を瞬時に無力化するように設計されている(つまり、検出器の性能が著しく損なわれ、サービス停止で終了する)。
我々は,自然物を利用した新たな中毒対策を導入し,実環境における実践的なバックドアとして機能することを可能にした。
論文 参考訳(メタデータ) (2024-04-17T13:12:14Z) - Mask-based Invisible Backdoor Attacks on Object Detection [0.0]
ディープラーニングモデルは、バックドア攻撃に弱い。
本研究では,マスクベースのアプローチを用いて,物体検出に対する効果的な視覚的バックドア攻撃を提案する。
論文 参考訳(メタデータ) (2024-03-20T12:27:30Z) - Model Pairing Using Embedding Translation for Backdoor Attack Detection on Open-Set Classification Tasks [63.269788236474234]
バックドア検出のためのオープンセット分類タスクにモデルペアを用いることを提案する。
このスコアは、異なるアーキテクチャのモデルがあるにもかかわらず、バックドアの存在を示す指標であることを示している。
この技術は、オープンセット分類タスク用に設計されたモデル上のバックドアの検出を可能にするが、文献ではほとんど研究されていない。
論文 参考訳(メタデータ) (2024-02-28T21:29:16Z) - Attacking by Aligning: Clean-Label Backdoor Attacks on Object Detection [24.271795745084123]
ディープニューラルネットワーク(DNN)は、オブジェクト検出タスクにおいて前例のない成功を収めている。
対象物検出タスクに対するバックドア攻撃は、適切に調査され、調査されていない。
そこで本研究では,オブジェクト検出に対して,接地真理アノテーションを変更することなく,簡易かつ効果的なバックドア攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-07-19T22:46:35Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Just Rotate it: Deploying Backdoor Attacks via Rotation Transformation [48.238349062995916]
回転に基づく画像変換により,高い効率のバックドアを容易に挿入できることが判明した。
私たちの研究は、バックドア攻撃のための、新しく、シンプルで、物理的に実現可能で、非常に効果的なベクターに焦点を当てています。
論文 参考訳(メタデータ) (2022-07-22T00:21:18Z) - ObjectSeeker: Certifiably Robust Object Detection against Patch Hiding
Attacks via Patch-agnostic Masking [95.6347501381882]
物体探知機は物理的世界のパッチ隠蔽攻撃に弱いことが判明した。
我々は,堅牢なオブジェクト検出器を構築するためのフレームワークとしてObjectSeekerを提案する。
論文 参考訳(メタデータ) (2022-02-03T19:34:25Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。