論文の概要: Robust Backdoor Attacks against Deep Neural Networks in Real Physical
World
- arxiv url: http://arxiv.org/abs/2104.07395v1
- Date: Thu, 15 Apr 2021 11:51:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-16 14:50:49.013433
- Title: Robust Backdoor Attacks against Deep Neural Networks in Real Physical
World
- Title(参考訳): 現実世界の深部ニューラルネットワークに対するロバストなバックドア攻撃
- Authors: Mingfu Xue, Can He, Shichang Sun, Jian Wang, Weiqiang Liu
- Abstract要約: ディープニューラルネットワーク(DNN)は様々な応用に広く利用されている。
既存のバックドアのほとんどがデジタルドメインに焦点を当てているが、実際の現実世界におけるバックドア攻撃を調査する研究はほとんどない。
本稿では,物理世界のディープラーニングモデルに対するバックドア攻撃を実装するためのロバストな物理バックドア攻撃手法ptbを提案する。
- 参考スコア(独自算出の注目度): 6.622414121450076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNN) have been widely deployed in various practical
applications. However, many researches indicated that DNN is vulnerable to
backdoor attacks. The attacker can create a hidden backdoor in target DNN
model, and trigger the malicious behaviors by submitting specific backdoor
instance. However, almost all the existing backdoor works focused on the
digital domain, while few studies investigate the backdoor attacks in real
physical world. Restricted to a variety of physical constrains, the performance
of backdoor attacks in the real world will be severely degraded. In this paper,
we propose a robust physical backdoor attack method, PTB (physical
transformations for backdoors), to implement the backdoor attacks against deep
learning models in the physical world. Specifically, in the training phase, we
perform a series of physical transformations on these injected backdoor
instances at each round of model training, so as to simulate various
transformations that a backdoor may experience in real world, thus improves its
physical robustness. Experimental results on the state-of-the-art face
recognition model show that, compared with the methods that without PTB, the
proposed attack method can significantly improve the performance of backdoor
attacks in real physical world. Under various complex physical conditions, by
injecting only a very small ratio (0.5%) of backdoor instances, the success
rate of physical backdoor attacks with the PTB method on VGGFace is 82%, while
the attack success rate of backdoor attacks without the proposed PTB method is
lower than 11%. Meanwhile, the normal performance of target DNN model has not
been affected. This paper is the first work on the robustness of physical
backdoor attacks, and is hopeful for providing guideline for the subsequent
physical backdoor works.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は様々な応用に広く利用されている。
しかし、多くの研究により、DNNはバックドア攻撃に弱いことが示されている。
攻撃者はターゲットのDNNモデルに隠されたバックドアを作成し、特定のバックドアインスタンスを提出することで悪意のある振る舞いをトリガーすることができる。
しかし、既存のバックドアの作業はほとんどがデジタルドメインに焦点を当てており、実際の物理的世界のバックドア攻撃を調査する研究はほとんどない。
様々な物理的制約に制限され、現実世界におけるバックドア攻撃の性能は著しく低下する。
本稿では,物理世界のディープラーニングモデルに対するバックドア攻撃を実装するための,堅牢な物理バックドア攻撃法であるptb(physical transformations for backdoors)を提案する。
具体的には、トレーニング段階では、各モデルトレーニングのラウンドでこれらの注入されたバックドアインスタンス上で一連の物理変換を行い、バックドアが現実世界で経験できる様々な変換をシミュレートし、物理的堅牢性を向上させる。
現状の顔認識モデルによる実験結果から,PTBを使わずに実世界におけるバックドア攻撃の性能を大幅に向上させることができることがわかった。
様々な複雑な物理的条件下では、バックドアのインスタンスのごく一部(0.5%)を注入することで、VGGFace上でのTB法による物理的バックドア攻撃の成功率は82%、提案されたTB法を使わずにバックドア攻撃の攻撃成功率は11%未満となる。
一方、ターゲットDNNモデルの正常性能は影響を受けていない。
本稿は,物理バックドア攻撃のロバスト性に関する最初の研究であり,その後の物理バックドア攻撃のガイドラインを提供することを期待する。
関連論文リスト
- Mitigating Backdoor Attack by Injecting Proactive Defensive Backdoor [63.84477483795964]
データ中毒のバックドア攻撃は、機械学習モデルにとって深刻なセキュリティ上の脅威である。
本稿では,トレーニング中のバックドアディフェンスに着目し,データセットが有害になりうる場合でもクリーンなモデルをトレーニングすることを目的とした。
PDB(Proactive Defensive Backdoor)と呼ばれる新しい防衛手法を提案する。
論文 参考訳(メタデータ) (2024-05-25T07:52:26Z) - Robust Backdoor Attacks on Object Detection in Real World [8.910615149604201]
攻撃対象の異なるサイズに対応するために,可変サイズバックドアトリガを提案する。
さらに,悪質な対人訓練というバックドアトレーニングを提案し,バックドア物体検出装置が物理的ノイズでトリガの特徴を学習できるようにした。
論文 参考訳(メタデータ) (2023-09-16T11:09:08Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Check Your Other Door! Establishing Backdoor Attacks in the Frequency
Domain [80.24811082454367]
検出不能で強力なバックドア攻撃を確立するために周波数領域を利用する利点を示す。
また、周波数ベースのバックドア攻撃を成功させる2つの防御方法と、攻撃者がそれらを回避できる可能性を示す。
論文 参考訳(メタデータ) (2021-09-12T12:44:52Z) - Backdoor Attack in the Physical World [49.64799477792172]
ディープニューラルネットワーク(DNN)に隠れたバックドアを注入するバックドア攻撃
既存のバックドア攻撃のほとんどは、トレーニングおよびテスト画像にまたがる静的トリガ、すなわち$$トリガの設定を採用した。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、この攻撃パラダイムは脆弱であることを示す。
論文 参考訳(メタデータ) (2021-04-06T08:37:33Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Light Can Hack Your Face! Black-box Backdoor Attack on Face Recognition
Systems [0.0]
顔認識システムにおけるブラックボックスバックドア攻撃手法を提案する。
バックドアトリガは極めて効果的であり、攻撃成功率は最大で88%である。
本研究は,既存の顔認識/検証技術のセキュリティ問題に注意を喚起する,新たな物理的バックドア攻撃を明らかにしたことを強調した。
論文 参考訳(メタデータ) (2020-09-15T11:50:29Z) - Reflection Backdoor: A Natural Backdoor Attack on Deep Neural Networks [46.99548490594115]
バックドア攻撃は、バックドアパターンをトレーニングデータのごく一部に注入することにより、バックドアを被害者モデルにインストールする。
被害者モデルにバックドアとして反射を植え付けるための反射バックドア(Refool)を提案する。
Refoolは最先端のDNNを高い成功率で攻撃することができる。
論文 参考訳(メタデータ) (2020-07-05T13:56:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。