論文の概要: MACAB: Model-Agnostic Clean-Annotation Backdoor to Object Detection with
Natural Trigger in Real-World
- arxiv url: http://arxiv.org/abs/2209.02339v1
- Date: Tue, 6 Sep 2022 09:56:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 15:09:06.798771
- Title: MACAB: Model-Agnostic Clean-Annotation Backdoor to Object Detection with
Natural Trigger in Real-World
- Title(参考訳): MACAB:実世界における自然トリガーによる物体検出のためのモデル非依存クリーンアノテーション
- Authors: Hua Ma, Yinshan Li, Yansong Gao, Zhi Zhang, Alsharif Abuadbba, Anmin
Fu, Said F. Al-Sarawi, Nepal Surya, Derek Abbott
- Abstract要約: クリーンなアノテート画像を製作し、バックドアを密かにトレーニング対象検出器に埋め込むMACABを提案する。
我々は,誤分類とクローキングの両方のバックドア効果が野生において頑健に達成されていることを観察した。
MACABは現実世界の様々な場面で90%以上の攻撃成功率を示す。
- 参考スコア(独自算出の注目度): 10.741535767552127
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object detection is the foundation of various critical computer-vision tasks
such as segmentation, object tracking, and event detection. To train an object
detector with satisfactory accuracy, a large amount of data is required.
However, due to the intensive workforce involved with annotating large
datasets, such a data curation task is often outsourced to a third party or
relied on volunteers. This work reveals severe vulnerabilities of such data
curation pipeline. We propose MACAB that crafts clean-annotated images to
stealthily implant the backdoor into the object detectors trained on them even
when the data curator can manually audit the images. We observe that the
backdoor effect of both misclassification and the cloaking are robustly
achieved in the wild when the backdoor is activated with inconspicuously
natural physical triggers. Backdooring non-classification object detection with
clean-annotation is challenging compared to backdooring existing image
classification tasks with clean-label, owing to the complexity of having
multiple objects within each frame, including victim and non-victim objects.
The efficacy of the MACAB is ensured by constructively i abusing the
image-scaling function used by the deep learning framework, ii incorporating
the proposed adversarial clean image replica technique, and iii combining
poison data selection criteria given constrained attacking budget. Extensive
experiments demonstrate that MACAB exhibits more than 90% attack success rate
under various real-world scenes. This includes both cloaking and
misclassification backdoor effect even restricted with a small attack budget.
The poisoned samples cannot be effectively identified by state-of-the-art
detection techniques.The comprehensive video demo is at
https://youtu.be/MA7L_LpXkp4, which is based on a poison rate of 0.14% for
YOLOv4 cloaking backdoor and Faster R-CNN misclassification backdoor.
- Abstract(参考訳): オブジェクト検出は、セグメンテーション、オブジェクト追跡、イベント検出など、様々な重要なコンピュータビジョンタスクの基礎である。
オブジェクト検出器を十分な精度で訓練するには、大量のデータが必要である。
しかし、大規模なデータセットを注釈付けする作業が集中しているため、このようなデータキュレーションタスクは第三者にアウトソースしたり、ボランティアに頼ったりすることがよくある。
この作業は、このようなデータキュレーションパイプラインの重大な脆弱性を明らかにします。
我々は,データキュレーターが手動で画像の検査を行う場合でも,クリーンアノテートされた画像を作成して,トレーニング対象検出器に密かにバックドアを埋め込むMACABを提案する。
誤分類とクローキングの両方のバックドア効果は、バックドアが不明瞭な自然トリガーで活性化されたとき、野生において頑健に達成されていることを観察する。
クリーンラベルによるバックドア化非分類オブジェクト検出は、被害者や非勝利オブジェクトを含む各フレーム内に複数のオブジェクトを持つことが複雑であるため、既存のイメージ分類タスクをクリーンラベルでバックドアするよりも難しい。
MACABの有効性は、ディープラーニングフレームワークで使用される画像スケーリング機能を構築的に悪用すること、提案手法を取り入れること、および、制約された攻撃予算が与えられた毒データ選択基準を組み合わせることにより確保される。
大規模な実験では、MACABは現実世界の様々な場面で90%以上の攻撃成功率を示す。
これには、小さな攻撃予算で制限された、クローキングと誤分類バックドア効果の両方が含まれる。
有毒試料は最先端検出技術では同定できないが, 総合的なビデオデモはhttps://youtu.be/MA7L_LpXkp4であり, YOLOv4クローキングバックドアとFaster R-CNN誤分類バックドアの毒性率0.14%に基づいている。
関連論文リスト
- Detector Collapse: Physical-World Backdooring Object Detection to Catastrophic Overload or Blindness in Autonomous Driving [17.637155085620634]
ディテクター・コラプス(英: Detector Collapse、DC)は、オブジェクト検出用に設計された、新しいバックドア攻撃パラダイムである。
DCは、検出器を瞬時に無力化するように設計されている(つまり、検出器の性能が著しく損なわれ、サービス停止で終了する)。
我々は,自然物を利用した新たな中毒対策を導入し,実環境における実践的なバックドアとして機能することを可能にした。
論文 参考訳(メタデータ) (2024-04-17T13:12:14Z) - Attacking by Aligning: Clean-Label Backdoor Attacks on Object Detection [24.271795745084123]
ディープニューラルネットワーク(DNN)は、オブジェクト検出タスクにおいて前例のない成功を収めている。
対象物検出タスクに対するバックドア攻撃は、適切に調査され、調査されていない。
そこで本研究では,オブジェクト検出に対して,接地真理アノテーションを変更することなく,簡易かつ効果的なバックドア攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-07-19T22:46:35Z) - Mask and Restore: Blind Backdoor Defense at Test Time with Masked
Autoencoder [57.739693628523]
Masked AutoEncoder (BDMAE) を用いたブラインドバックドア防御のためのフレームワークを提案する。
BDMAEは、画像構造的類似性とテスト画像とMAE復元の間のラベル整合性を用いて、トークン空間で可能なトリガを検出する。
私たちのアプローチは、モデル復元、パターンのトリガー、画像の良心に盲目です。
論文 参考訳(メタデータ) (2023-03-27T19:23:33Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Training set cleansing of backdoor poisoning by self-supervised
representation learning [0.0]
バックドアまたはトロイの木馬攻撃は、ディープニューラルネットワーク(DNN)に対するデータ中毒攻撃の重要なタイプである
教師付きトレーニングは, バックドアパターンと関連するターゲットクラスとの間に, 通常の特徴と真の起源のクラスとの間により強い関連性を持つことが示唆された。
そこで本研究では,教師なし表現学習を用いて,バックドアポゾンによるトレーニングサンプルの強調を回避し,同じクラスのサンプルに類似した特徴埋め込みを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-19T03:29:58Z) - Just Rotate it: Deploying Backdoor Attacks via Rotation Transformation [48.238349062995916]
回転に基づく画像変換により,高い効率のバックドアを容易に挿入できることが判明した。
私たちの研究は、バックドア攻撃のための、新しく、シンプルで、物理的に実現可能で、非常に効果的なベクターに焦点を当てています。
論文 参考訳(メタデータ) (2022-07-22T00:21:18Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - BadDet: Backdoor Attacks on Object Detection [42.40418007499009]
対象物検出のための4種類のバックドア攻撃を提案する。
トリガーは、ターゲットクラスのオブジェクトを誤って生成することができる。
単一のトリガーは、イメージ内のすべてのオブジェクトの予測をターゲットクラスに変更することができる。
論文 参考訳(メタデータ) (2022-05-28T18:02:11Z) - ObjectSeeker: Certifiably Robust Object Detection against Patch Hiding
Attacks via Patch-agnostic Masking [95.6347501381882]
物体探知機は物理的世界のパッチ隠蔽攻撃に弱いことが判明した。
我々は,堅牢なオブジェクト検出器を構築するためのフレームワークとしてObjectSeekerを提案する。
論文 参考訳(メタデータ) (2022-02-03T19:34:25Z) - Backdoor Attack on Hash-based Image Retrieval via Clean-label Data
Poisoning [54.15013757920703]
混乱性摂動誘発性バックドアアタック(CIBA)を提案する。
トレーニングデータに、正しいラベルで少量の有毒画像を注入する。
提案したCIBAの有効性を検証するための広範な実験を行った。
論文 参考訳(メタデータ) (2021-09-18T07:56:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。