論文の概要: An Embarrassingly Simple Approach for Trojan Attack in Deep Neural
Networks
- arxiv url: http://arxiv.org/abs/2006.08131v2
- Date: Thu, 18 Jun 2020 04:27:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 05:13:23.206786
- Title: An Embarrassingly Simple Approach for Trojan Attack in Deep Neural
Networks
- Title(参考訳): ディープニューラルネットワークにおけるトロイの木馬攻撃の恥ずかしい簡単なアプローチ
- Authors: Ruixiang Tang, Mengnan Du, Ninghao Liu, Fan Yang, Xia Hu
- Abstract要約: トロイの木馬攻撃は、ハッカーが挿入した隠れトリガーパターンに依存する、デプロイされたディープニューラルネットワーク(DNN)を攻撃することを目的としている。
そこで本研究では,有毒データセットの再学習モデルによりトロイの木馬の挙動を注入する,従来と異なる学習自由攻撃手法を提案する。
提案したTrojanNetには,(1)小さなトリガパターンによって起動し,他の信号に対してサイレントを維持する,(2)モデルに依存しない,ほとんどのDNNに注入可能な,(3)攻撃シナリオを劇的に拡張する,(3)訓練不要のメカニズムは従来のトロイの木馬攻撃方法と比較して大規模なトレーニング作業の削減など,いくつかの優れた特性がある。
- 参考スコア(独自算出の注目度): 59.42357806777537
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the widespread use of deep neural networks (DNNs) in high-stake
applications, the security problem of the DNN models has received extensive
attention. In this paper, we investigate a specific security problem called
trojan attack, which aims to attack deployed DNN systems relying on the hidden
trigger patterns inserted by malicious hackers. We propose a training-free
attack approach which is different from previous work, in which trojaned
behaviors are injected by retraining model on a poisoned dataset. Specifically,
we do not change parameters in the original model but insert a tiny trojan
module (TrojanNet) into the target model. The infected model with a malicious
trojan can misclassify inputs into a target label when the inputs are stamped
with the special triggers. The proposed TrojanNet has several nice properties
including (1) it activates by tiny trigger patterns and keeps silent for other
signals, (2) it is model-agnostic and could be injected into most DNNs,
dramatically expanding its attack scenarios, and (3) the training-free
mechanism saves massive training efforts comparing to conventional trojan
attack methods. The experimental results show that TrojanNet can inject the
trojan into all labels simultaneously (all-label trojan attack) and achieves
100% attack success rate without affecting model accuracy on original tasks.
Experimental analysis further demonstrates that state-of-the-art trojan
detection algorithms fail to detect TrojanNet attack. The code is available at
https://github.com/trx14/TrojanNet.
- Abstract(参考訳): 大規模アプリケーションでディープニューラルネットワーク(DNN)が広く使用されていることから、DNNモデルのセキュリティ問題は広く注目を集めている。
本稿では、悪意あるハッカーが挿入した隠れトリガーパターンに依存するDNNシステムへの攻撃を目的とした、トロイの木馬攻撃と呼ばれる特定のセキュリティ問題について検討する。
そこで本研究では,有毒データセットの再学習モデルによりトロイの木馬の挙動を注入する,従来と異なる学習自由攻撃手法を提案する。
具体的には、元のモデルでパラメータを変更するのではなく、ターゲットモデルに小さなtrojanモジュール(trojannet)を挿入します。
悪意のあるトロイの木馬を持つ感染したモデルは、入力が特別なトリガーで押されると、入力をターゲットラベルに誤分類することができる。
提案するtrojannetには,(1)トリガパターンを小さくして起動し,他の信号に対して無音を保つ,(2)モデル非依存でほとんどのdnnに注入可能な,攻撃シナリオを劇的に拡大する,(3)トレーニングフリー機構は,従来のトロイの木馬攻撃手法と比較して,大規模なトレーニング努力を省く,といった優れた特性がいくつかある。
実験の結果、TrojanNetは全てのラベルに同時にトロイの木馬を注入し(全ラベルトロイの木馬攻撃)、オリジナルのタスクのモデル精度に影響を与えることなく100%の攻撃成功率を達成することができた。
実験的解析により、最先端のトロイの木馬検出アルゴリズムがトロイの木馬攻撃を検知できないことが示される。
コードはhttps://github.com/trx14/trojannetで入手できる。
関連論文リスト
- Attention-Enhancing Backdoor Attacks Against BERT-based Models [54.070555070629105]
バックドア攻撃の戦略を調べることは、モデルの脆弱性を理解するのに役立つだろう。
本稿では,注意パターンを直接操作することでトロイの木馬行動を向上させる新しいトロイの木馬注意損失(TAL)を提案する。
論文 参考訳(メタデータ) (2023-10-23T01:24:56Z) - Hardly Perceptible Trojan Attack against Neural Networks with Bit Flips [51.17948837118876]
ほとんど知覚できないトロイア攻撃(HPT)を呈する。
HPTは、加算ノイズと画素あたりのフロー場を利用して、知覚しにくいトロイの木像を作成する。
より優れた攻撃性能を達成するために,ビットフリップ,付加雑音,流れ場を協調的に最適化することを提案する。
論文 参考訳(メタデータ) (2022-07-27T09:56:17Z) - Quarantine: Sparsity Can Uncover the Trojan Attack Trigger for Free [126.15842954405929]
トロイの木馬攻撃はディープニューラルネットワーク(DNN)を脅かし、ほとんどのサンプルで正常に動作させるが、トリガーを付けた入力に対して操作された結果を生成する。
そこで我々は,まず,クリーンな入力において,ほぼ完全なトロイの木馬の情報のみを保存し,かつ,すでに孤立しているサブネットワークに埋め込まれたトリガを復元する,新しいトロイの木馬ネットワーク検出方式を提案する。
論文 参考訳(メタデータ) (2022-05-24T06:33:31Z) - CatchBackdoor: Backdoor Detection via Critical Trojan Neural Path Fuzzing [16.44147178061005]
様々なトロイの木馬攻撃によって引き起こされる トロイの木馬の行動は トロイの木馬の道のせいだ
トロイの木馬攻撃に対する検出手法であるCatchBackdoorを提案する。
論文 参考訳(メタデータ) (2021-12-24T13:57:03Z) - A Synergetic Attack against Neural Network Classifiers combining
Backdoor and Adversarial Examples [11.534521802321976]
AdvTrojanと呼ばれる新たなステルス攻撃を実際に開始するために、敵の摂動と毒殺の脆弱性を共同で活用する方法を示します。
AdvTrojan は、(1) 慎重に製作された逆方向の摂動を推論中に入力例に注入し、2) モデルの訓練過程中にトロイの木戸を埋め込んだ場合にのみ起動できるため、ステルス性が高い。
論文 参考訳(メタデータ) (2021-09-03T02:18:57Z) - CLEANN: Accelerated Trojan Shield for Embedded Neural Networks [32.99727805086791]
組込みディープニューラルネットワーク(DNN)アプリケーションに対するトロイの木馬のオンライン緩和を可能にする,最初のエンドツーエンドフレームワークであるCLEANNを提案する。
トロイの木馬攻撃は、訓練中にDNNにバックドアを注入することで動作し、推論中は特定のバックドアトリガーによってトロイの木馬が活性化される。
辞書学習とスパース近似を利用して、良性データの統計的挙動を特徴づけ、トロイの木馬のトリガーを同定する。
論文 参考訳(メタデータ) (2020-09-04T05:29:38Z) - Practical Detection of Trojan Neural Networks: Data-Limited and
Data-Free Cases [87.69818690239627]
本稿では,データスカース方式におけるトロイの木馬ネットワーク(トロイの木馬網)検出の問題点について検討する。
本稿では,データ限定型TrojanNet検出器(TND)を提案する。
さらに,データサンプルにアクセスせずにTrojanNetを検出できるデータフリーTNDを提案する。
論文 参考訳(メタデータ) (2020-07-31T02:00:38Z) - Odyssey: Creation, Analysis and Detection of Trojan Models [91.13959405645959]
トロイの木馬攻撃は、一部のトレーニングサンプルにトリガーを挿入してトレーニングパイプラインを妨害し、トリガーを含むサンプルに対してのみ悪意ある動作をするようにモデルを訓練する。
既存のトロイの木馬検出器はトリガーの種類や攻撃について強い仮定をしている。
そこで本研究では,トロヤニング過程の影響を受け,本質的特性の分析に基づく検出器を提案する。
論文 参考訳(メタデータ) (2020-07-16T06:55:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。