論文の概要: Dangerous Cloaking: Natural Trigger based Backdoor Attacks on Object
Detectors in the Physical World
- arxiv url: http://arxiv.org/abs/2201.08619v1
- Date: Fri, 21 Jan 2022 10:11:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-24 13:31:12.920705
- Title: Dangerous Cloaking: Natural Trigger based Backdoor Attacks on Object
Detectors in the Physical World
- Title(参考訳): 危険クローキング - 物理的世界の物体検出器に対する自然トリガーに基づくバックドア攻撃
- Authors: Hua Ma, Yinshan Li, Yansong Gao, Alsharif Abuadbba, Zhi Zhang, Anmin
Fu, Hyoungshick Kim, Said F. Al-Sarawi, Nepal Surya, Derek Abbott
- Abstract要約: この研究は、既存の物体検出器が物理的バックドア攻撃の影響を受けやすいことを実証している。
このようなバックドアを2つの悪用可能な攻撃シナリオからオブジェクト検出器に埋め込むことができることを示す。
我々は, アンカーベースYolo-V3, Yolo-V4, アンカーフリーCenterNetの3つの人気物体検出アルゴリズムを評価する。
- 参考スコア(独自算出の注目度): 20.385028861767218
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models have been shown to be vulnerable to recent backdoor
attacks. A backdoored model behaves normally for inputs containing no
attacker-secretly-chosen trigger and maliciously for inputs with the trigger.
To date, backdoor attacks and countermeasures mainly focus on image
classification tasks. And most of them are implemented in the digital world
with digital triggers. Besides the classification tasks, object detection
systems are also considered as one of the basic foundations of computer vision
tasks. However, there is no investigation and understanding of the backdoor
vulnerability of the object detector, even in the digital world with digital
triggers. For the first time, this work demonstrates that existing object
detectors are inherently susceptible to physical backdoor attacks. We use a
natural T-shirt bought from a market as a trigger to enable the cloaking
effect--the person bounding-box disappears in front of the object detector. We
show that such a backdoor can be implanted from two exploitable attack
scenarios into the object detector, which is outsourced or fine-tuned through a
pretrained model. We have extensively evaluated three popular object detection
algorithms: anchor-based Yolo-V3, Yolo-V4, and anchor-free CenterNet. Building
upon 19 videos shot in real-world scenes, we confirm that the backdoor attack
is robust against various factors: movement, distance, angle, non-rigid
deformation, and lighting. Specifically, the attack success rate (ASR) in most
videos is 100% or close to it, while the clean data accuracy of the backdoored
model is the same as its clean counterpart. The latter implies that it is
infeasible to detect the backdoor behavior merely through a validation set. The
averaged ASR still remains sufficiently high to be 78% in the transfer learning
attack scenarios evaluated on CenterNet. See the demo video on
https://youtu.be/Q3HOF4OobbY.
- Abstract(参考訳): ディープラーニングモデルは、最近のバックドア攻撃に弱いことが示されている。
バックドアモデルは通常、攻撃者秘密のトリガーを含まない入力と、トリガーによる入力に対して悪質に振る舞う。
現在までに、バックドア攻撃と対策は主に画像分類タスクに焦点を当てている。
そして、そのほとんどはデジタル世界でデジタルトリガーで実装されている。
分類タスクの他に、オブジェクト検出システムはコンピュータビジョンタスクの基本的な基礎の1つと見なされている。
しかし,デジタルトリガを用いたデジタル世界においても,対象検出器のバックドア脆弱性の調査や理解は行われていない。
この研究は、既存の物体検出器が物理的バックドア攻撃の影響を受けやすいことを初めて証明した。
私たちは、市場から購入した自然なtシャツを、クローキング効果を可能にするトリガーとして使用します。
このようなバックドアは2つの悪用可能な攻撃シナリオからオブジェクト検出器に埋め込むことができ、それは事前訓練されたモデルを通じてアウトソースまたは微調整される。
我々は、アンカーベースYolo-V3、Yolo-V4、アンカーフリーCenterNetの3つの一般的なオブジェクト検出アルゴリズムを広く評価してきた。
実世界のシーンで撮影された19本のビデオを基にして,バックドア攻撃が移動,距離,角度,非剛性変形,照明などさまざまな要因に対して頑健であることを確認した。
具体的には、ほとんどのビデオにおけるアタック成功率(ASR)は100%かそれに近いが、バックドアモデルのクリーンなデータ精度はクリーンなものと同じである。
後者は、検証セットだけでバックドアの動作を検出することは不可能であることを意味する。
平均的なASRは依然として十分高いままであり、CenterNetで評価された転送学習攻撃シナリオでは78%である。
デモビデオはhttps://youtu.be/Q3HOF4OobbY.com。
関連論文リスト
- Robust Backdoor Attacks on Object Detection in Real World [8.910615149604201]
攻撃対象の異なるサイズに対応するために,可変サイズバックドアトリガを提案する。
さらに,悪質な対人訓練というバックドアトレーニングを提案し,バックドア物体検出装置が物理的ノイズでトリガの特徴を学習できるようにした。
論文 参考訳(メタデータ) (2023-09-16T11:09:08Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - BadDet: Backdoor Attacks on Object Detection [42.40418007499009]
対象物検出のための4種類のバックドア攻撃を提案する。
トリガーは、ターゲットクラスのオブジェクトを誤って生成することができる。
単一のトリガーは、イメージ内のすべてのオブジェクトの予測をターゲットクラスに変更することができる。
論文 参考訳(メタデータ) (2022-05-28T18:02:11Z) - Check Your Other Door! Establishing Backdoor Attacks in the Frequency
Domain [80.24811082454367]
検出不能で強力なバックドア攻撃を確立するために周波数領域を利用する利点を示す。
また、周波数ベースのバックドア攻撃を成功させる2つの防御方法と、攻撃者がそれらを回避できる可能性を示す。
論文 参考訳(メタデータ) (2021-09-12T12:44:52Z) - Sleeper Agent: Scalable Hidden Trigger Backdoors for Neural Networks
Trained from Scratch [99.90716010490625]
バックドア攻撃者は、トレーニングデータを改ざんして、そのデータに基づいてトレーニングされたモデルに脆弱性を埋め込む。
この脆弱性は、モデル入力に"トリガー"を配置することで、推論時にアクティベートされる。
我々は,工芸過程において,勾配マッチング,データ選択,ターゲットモデル再トレーニングを利用した新しい隠れトリガ攻撃,Sleeper Agentを開発した。
論文 参考訳(メタデータ) (2021-06-16T17:09:55Z) - Backdoor Attack in the Physical World [49.64799477792172]
ディープニューラルネットワーク(DNN)に隠れたバックドアを注入するバックドア攻撃
既存のバックドア攻撃のほとんどは、トレーニングおよびテスト画像にまたがる静的トリガ、すなわち$$トリガの設定を採用した。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、この攻撃パラダイムは脆弱であることを示す。
論文 参考訳(メタデータ) (2021-04-06T08:37:33Z) - Don't Trigger Me! A Triggerless Backdoor Attack Against Deep Neural
Networks [22.28270345106827]
現在の最先端のバックドア攻撃では、ターゲットモデルがバックドアをアクティベートするために入力を変更する必要がある。
このトリガーは物理世界でのバックドア攻撃の難易度を高めるだけでなく、複数の防御機構によって容易に検出できる。
我々は、バックドアをトリガーする入力を変更する必要のない、ディープニューラルネットワークに対する最初のトリガーレスバックドア攻撃を示す。
論文 参考訳(メタデータ) (2020-10-07T09:01:39Z) - Backdoor Attacks Against Deep Learning Systems in the Physical World [23.14528973663843]
実世界の様々な条件下での物理的バックドア攻撃の実現可能性について検討した。
物理的なオブジェクトが課す制約を克服するように慎重に設定されている場合、物理的なバックドア攻撃は高い成功を収める。
今日の(デジタル)バックドアに対する最先端の防御のうち4つは、物理的なバックドアに対して効果がない。
論文 参考訳(メタデータ) (2020-06-25T17:26:20Z) - Clean-Label Backdoor Attacks on Video Recognition Models [87.46539956587908]
画像バックドア攻撃は、ビデオでははるかに効果が低いことを示す。
本稿では,映像認識モデルに対するバックドアトリガとして,ユニバーサル・ディバイサル・トリガーを提案する。
提案したバックドア攻撃は,最先端のバックドア防御・検出手法に耐性がある。
論文 参考訳(メタデータ) (2020-03-06T04:51:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。