論文の概要: Comprehensive Evaluation of Cloaking Backdoor Attacks on Object Detector in Real-World
- arxiv url: http://arxiv.org/abs/2501.15101v1
- Date: Sat, 25 Jan 2025 06:43:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-28 13:53:34.938993
- Title: Comprehensive Evaluation of Cloaking Backdoor Attacks on Object Detector in Real-World
- Title(参考訳): 実世界における物体検出器のクロークバックドア攻撃の包括的評価
- Authors: Hua Ma, Alsharif Abuadbba, Yansong Gao, Hyoungshick Kim, Surya Nepal,
- Abstract要約: このデータセットは、物体検出器の物理的バックドアの研究のために調整されている。
実世界のシナリオにおいて、19の動画(約11,800フレーム)を用いて4つの人気物体検出アルゴリズムを広範囲に評価した。
その結果, バックドア攻撃は移動, 距離, 角度, 非剛性変形, 照明など, 様々な要因に対して顕著な堅牢性を示すことがわかった。
- 参考スコア(独自算出の注目度): 31.24615007171502
- License:
- Abstract: The exploration of backdoor vulnerabilities in object detectors, particularly in real-world scenarios, remains limited. A significant challenge lies in the absence of a natural physical backdoor dataset, and constructing such a dataset is both time- and labor-intensive. In this work, we address this gap by creating a large-scale dataset comprising approximately 11,800 images/frames with annotations featuring natural objects (e.g., T-shirts and hats) as triggers to incur cloaking adversarial effects in diverse real-world scenarios. This dataset is tailored for the study of physical backdoors in object detectors. Leveraging this dataset, we conduct a comprehensive evaluation of an insidious cloaking backdoor effect against object detectors, wherein the bounding box around a person vanishes when the individual is near a natural object (e.g., a commonly available T-shirt) in front of the detector. Our evaluations encompass three prevalent attack surfaces: data outsourcing, model outsourcing, and the use of pretrained models. The cloaking effect is successfully implanted in object detectors across all three attack surfaces. We extensively evaluate four popular object detection algorithms (anchor-based Yolo-V3, Yolo-V4, Faster R-CNN, and anchor-free CenterNet) using 19 videos (totaling approximately 11,800 frames) in real-world scenarios. Our results demonstrate that the backdoor attack exhibits remarkable robustness against various factors, including movement, distance, angle, non-rigid deformation, and lighting. In data and model outsourcing scenarios, the attack success rate (ASR) in most videos reaches 100% or near it, while the clean data accuracy of the backdoored model remains indistinguishable from that of the clean model, making it impossible to detect backdoor behavior through a validation set.
- Abstract(参考訳): オブジェクト検出器、特に現実世界のシナリオにおけるバックドア脆弱性の探索は、依然として限られている。
重要な課題は、自然な物理バックドアデータセットが存在しないことであり、そのようなデータセットの構築は時間と労働集約の両方である。
本研究では,自然オブジェクト(例えばTシャツや帽子)を特徴とするアノテーションを付加した,約11,800の画像/フレームからなる大規模データセットを,さまざまな実世界のシナリオにおいて,クローキングの逆効果を誘発するトリガとして作成することにより,このギャップに対処する。
このデータセットは、物体検出器の物理的バックドアの研究のために調整されている。
このデータセットを利用することで、物体検出装置に対する有害なクローキングバックドア効果の包括的評価を行い、検知器の前方にある自然物(例えば、一般的なTシャツ)の近くに個人がいると、人を取り巻くバウンディングボックスが消滅する。
我々の評価は、データアウトソーシング、モデルアウトソーシング、事前訓練されたモデルの使用の3つの一般的な攻撃面を含む。
クローキング効果は、3つの攻撃面全てにわたる物体検出器にうまく注入される。
現実のシナリオでは、19の動画(約11,800フレーム)を用いて、一般的な4つのオブジェクト検出アルゴリズム(アンカーベースYolo-V3、Yolo-V4、Faster R-CNN、およびアンカーフリーCenterNet)を広範囲に評価した。
その結果, バックドア攻撃は移動, 距離, 角度, 非剛性変形, 照明など, 様々な要因に対して顕著な堅牢性を示すことがわかった。
データおよびモデルアウトソーシングのシナリオでは、ほとんどのビデオにおけるアタック成功率(ASR)は100%以上に達するが、バックドアモデルのクリーンなデータ精度はクリーンなモデルと区別できないため、検証セットを通じてバックドアの動作を検出することは不可能である。
関連論文リスト
- PickScan: Object discovery and reconstruction from handheld interactions [99.99566882133179]
シーンの3次元表現を再構成する対話誘導型クラス依存型手法を開発した。
我々の主な貢献は、操作対象のインタラクションを検出し、操作対象のマスクを抽出する新しいアプローチである。
相互作用ベースとクラス非依存のベースラインであるCo-Fusionと比較すると、これはシャムファー距離の73%の減少に相当する。
論文 参考訳(メタデータ) (2024-11-17T23:09:08Z) - Mask-based Invisible Backdoor Attacks on Object Detection [0.0]
ディープラーニングモデルは、バックドア攻撃に弱い。
本研究では,マスクベースのアプローチを用いて,物体検出に対する効果的な視覚的バックドア攻撃を提案する。
論文 参考訳(メタデータ) (2024-03-20T12:27:30Z) - Model Pairing Using Embedding Translation for Backdoor Attack Detection on Open-Set Classification Tasks [63.269788236474234]
バックドア検出のためのオープンセット分類タスクにモデルペアを用いることを提案する。
このスコアは、異なるアーキテクチャのモデルがあるにもかかわらず、バックドアの存在を示す指標であることを示している。
この技術は、オープンセット分類タスク用に設計されたモデル上のバックドアの検出を可能にするが、文献ではほとんど研究されていない。
論文 参考訳(メタデータ) (2024-02-28T21:29:16Z) - 3D Adversarial Augmentations for Robust Out-of-Domain Predictions [115.74319739738571]
ドメイン外データへの一般化の改善に注力する。
対象を逆向きに変形させるベクトルの集合を学習する。
本研究では,学習したサンプル非依存ベクトルをモデルトレーニング時に利用可能なオブジェクトに適用することにより,対数拡大を行う。
論文 参考訳(メタデータ) (2023-08-29T17:58:55Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - TransCAB: Transferable Clean-Annotation Backdoor to Object Detection
with Natural Trigger in Real-World [16.14185033829483]
クリーンなアノテート画像を製作し、バックドアを密かにトレーニング対象検出器に埋め込むMACABを提案する。
我々は,誤分類とクローキングの両方のバックドア効果が野生において頑健に達成されていることを観察した。
MACABは現実世界の様々な場面で90%以上の攻撃成功率を示す。
論文 参考訳(メタデータ) (2022-09-06T09:56:33Z) - Just Rotate it: Deploying Backdoor Attacks via Rotation Transformation [48.238349062995916]
回転に基づく画像変換により,高い効率のバックドアを容易に挿入できることが判明した。
私たちの研究は、バックドア攻撃のための、新しく、シンプルで、物理的に実現可能で、非常に効果的なベクターに焦点を当てています。
論文 参考訳(メタデータ) (2022-07-22T00:21:18Z) - BadDet: Backdoor Attacks on Object Detection [42.40418007499009]
対象物検出のための4種類のバックドア攻撃を提案する。
トリガーは、ターゲットクラスのオブジェクトを誤って生成することができる。
単一のトリガーは、イメージ内のすべてのオブジェクトの予測をターゲットクラスに変更することができる。
論文 参考訳(メタデータ) (2022-05-28T18:02:11Z) - Dangerous Cloaking: Natural Trigger based Backdoor Attacks on Object
Detectors in the Physical World [20.385028861767218]
この研究は、既存の物体検出器が物理的バックドア攻撃の影響を受けやすいことを実証している。
このようなバックドアを2つの悪用可能な攻撃シナリオからオブジェクト検出器に埋め込むことができることを示す。
我々は, アンカーベースYolo-V3, Yolo-V4, アンカーフリーCenterNetの3つの人気物体検出アルゴリズムを評価する。
論文 参考訳(メタデータ) (2022-01-21T10:11:27Z) - Check Your Other Door! Establishing Backdoor Attacks in the Frequency
Domain [80.24811082454367]
検出不能で強力なバックドア攻撃を確立するために周波数領域を利用する利点を示す。
また、周波数ベースのバックドア攻撃を成功させる2つの防御方法と、攻撃者がそれらを回避できる可能性を示す。
論文 参考訳(メタデータ) (2021-09-12T12:44:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。