論文の概要: BppAttack: Stealthy and Efficient Trojan Attacks against Deep Neural
Networks via Image Quantization and Contrastive Adversarial Learning
- arxiv url: http://arxiv.org/abs/2205.13383v1
- Date: Thu, 26 May 2022 14:15:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-27 13:51:17.394676
- Title: BppAttack: Stealthy and Efficient Trojan Attacks against Deep Neural
Networks via Image Quantization and Contrastive Adversarial Learning
- Title(参考訳): BppAttack: 画像量子化とコントラスト逆学習によるディープニューラルネットワークに対する定常かつ効率的なトロイの木馬攻撃
- Authors: Zhenting Wang, Juan Zhai, Shiqing Ma
- Abstract要約: ディープニューラルネットワークはトロイの木馬攻撃に弱い。
既存の攻撃では目に見えるパターンをトリガーとして使用しており、人間の検査に弱い。
我々はステルス的で効率的なトロイア攻撃BppAttackを提案する。
- 参考スコア(独自算出の注目度): 13.959966918979395
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks are vulnerable to Trojan attacks. Existing attacks use
visible patterns (e.g., a patch or image transformations) as triggers, which
are vulnerable to human inspection. In this paper, we propose stealthy and
efficient Trojan attacks, BppAttack. Based on existing biology literature on
human visual systems, we propose to use image quantization and dithering as the
Trojan trigger, making imperceptible changes. It is a stealthy and efficient
attack without training auxiliary models. Due to the small changes made to
images, it is hard to inject such triggers during training. To alleviate this
problem, we propose a contrastive learning based approach that leverages
adversarial attacks to generate negative sample pairs so that the learned
trigger is precise and accurate. The proposed method achieves high attack
success rates on four benchmark datasets, including MNIST, CIFAR-10, GTSRB, and
CelebA. It also effectively bypasses existing Trojan defenses and human
inspection. Our code can be found in
https://github.com/RU-System-Software-and-Security/BppAttack.
- Abstract(参考訳): ディープニューラルネットワークはトロイの木馬攻撃に弱い。
既存の攻撃では目に見えるパターン(パッチや画像変換など)をトリガーとして使用しており、人間の検査に弱い。
本稿では,ステルス的で効率的なトロイア攻撃BppAttackを提案する。
人間の視覚系に関する既存の生物学文献に基づいて,画像の量子化とディザリングをトロイの木馬のトリガーとして用いることを提案する。
補助モデルを訓練することなく、ステルスで効率的な攻撃である。
画像の変更が小さいため、トレーニング中にそのようなトリガーを注入することは困難である。
この問題を軽減するために,敵対的攻撃を利用して負のサンプルペアを生成し,学習トリガが正確かつ正確であることを示す。
提案手法は,MNIST, CIFAR-10, GTSRB, CelebAを含む4つのベンチマークデータセットに対して高い攻撃成功率を実現する。
また、既存のトロイア防衛と人間の検査を効果的にバイパスする。
私たちのコードはhttps://github.com/RU-System-Software-and-Security/BppAttack.orgにある。
関連論文リスト
- Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Hardly Perceptible Trojan Attack against Neural Networks with Bit Flips [51.17948837118876]
ほとんど知覚できないトロイア攻撃(HPT)を呈する。
HPTは、加算ノイズと画素あたりのフロー場を利用して、知覚しにくいトロイの木像を作成する。
より優れた攻撃性能を達成するために,ビットフリップ,付加雑音,流れ場を協調的に最適化することを提案する。
論文 参考訳(メタデータ) (2022-07-27T09:56:17Z) - Defense Against Multi-target Trojan Attacks [31.54111353219381]
トロイアの攻撃は最も防御が難しい。
Badnetのような攻撃は、複数のターゲットクラスにTrojanのバックドアを導入し、画像のどこにでもトリガーを配置できるようにする。
この攻撃を防御するために、まず、複数の画像を用いて様々な潜在的なトリガを復元するトリガーリバースエンジニアリング機構を導入する。
次に, 回収したトリガの伝達性を測定し, 検出機構を提案する。
論文 参考訳(メタデータ) (2022-07-08T13:29:13Z) - Semantic Host-free Trojan Attack [54.25471812198403]
本稿では,意味空間に固定されているが,必ずしも画素空間に固定されていないトリガーを用いた新規なホストフリートロイア攻撃を提案する。
クリーンな入力イメージをホストとして使用して小さな無意味なトリガーパターンを担っている既存のトロイの木馬攻撃とは対照的に、我々の攻撃はトリガーを意味論的に意味のあるオブジェクトクラスに属するフルサイズのイメージとみなす。
論文 参考訳(メタデータ) (2021-10-26T05:01:22Z) - Backdoor Attack in the Physical World [49.64799477792172]
ディープニューラルネットワーク(DNN)に隠れたバックドアを注入するバックドア攻撃
既存のバックドア攻撃のほとんどは、トレーニングおよびテスト画像にまたがる静的トリガ、すなわち$$トリガの設定を採用した。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、この攻撃パラダイムは脆弱であることを示す。
論文 参考訳(メタデータ) (2021-04-06T08:37:33Z) - Deep Feature Space Trojan Attack of Neural Networks by Controlled
Detoxification [21.631699720855995]
トロイの木馬攻撃(Trojan attack)は、ディープニューラルネットワークに対する敵攻撃の一種である。
5つの特徴を持つ新しい深部特徴空間トロイの木馬攻撃を提案する。
論文 参考訳(メタデータ) (2020-12-21T09:46:12Z) - Odyssey: Creation, Analysis and Detection of Trojan Models [91.13959405645959]
トロイの木馬攻撃は、一部のトレーニングサンプルにトリガーを挿入してトレーニングパイプラインを妨害し、トリガーを含むサンプルに対してのみ悪意ある動作をするようにモデルを訓練する。
既存のトロイの木馬検出器はトリガーの種類や攻撃について強い仮定をしている。
そこで本研究では,トロヤニング過程の影響を受け,本質的特性の分析に基づく検出器を提案する。
論文 参考訳(メタデータ) (2020-07-16T06:55:00Z) - ConFoc: Content-Focus Protection Against Trojan Attacks on Neural
Networks [0.0]
トロイの木馬攻撃は、推測やテストの時間に悪用されるマークまたはトリガーのサンプルを使用して、トレーニング時にいくつかの誤った振る舞いを挿入する。
本稿では、DNNが入力のスタイルを無視してコンテンツに集中するように教えられるトロイの木馬攻撃に対する防御手法を提案する。
その結果,本手法は全攻撃における攻撃成功率を1%に低下させることがわかった。
論文 参考訳(メタデータ) (2020-07-01T19:25:34Z) - An Embarrassingly Simple Approach for Trojan Attack in Deep Neural
Networks [59.42357806777537]
トロイの木馬攻撃は、ハッカーが挿入した隠れトリガーパターンに依存する、デプロイされたディープニューラルネットワーク(DNN)を攻撃することを目的としている。
そこで本研究では,有毒データセットの再学習モデルによりトロイの木馬の挙動を注入する,従来と異なる学習自由攻撃手法を提案する。
提案したTrojanNetには,(1)小さなトリガパターンによって起動し,他の信号に対してサイレントを維持する,(2)モデルに依存しない,ほとんどのDNNに注入可能な,(3)攻撃シナリオを劇的に拡張する,(3)訓練不要のメカニズムは従来のトロイの木馬攻撃方法と比較して大規模なトレーニング作業の削減など,いくつかの優れた特性がある。
論文 参考訳(メタデータ) (2020-06-15T04:58:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。