論文の概要: Towards Understanding and Defending Input Space Trojans
- arxiv url: http://arxiv.org/abs/2202.06382v1
- Date: Sun, 13 Feb 2022 18:24:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-15 15:37:20.065773
- Title: Towards Understanding and Defending Input Space Trojans
- Title(参考訳): 入力空間トロイの木馬の理解と防衛に向けて
- Authors: Zhenting Wang, Hailun Ding, Juan Zhai, Shiqing Ma
- Abstract要約: Deep Neural Networks(DNN)は、良性または有毒なデータからトロイの木馬(あるいはバックドア)を学ぶことができる。
敵は任意の入力に固定された入力空間摂動を加え、特定の出力を予測するモデルを誤解させる。
モデルの決定領域とトロイの木馬の関係を説明する理論を提案する。
- 参考スコア(独自算出の注目度): 13.424638046528719
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) can learn Trojans (or backdoors) from benign or
poisoned data, which raises security concerns of using them. By exploiting such
Trojans, the adversary can add a fixed input space perturbation to any given
input to mislead the model predicting certain outputs (i.e., target labels). In
this paper, we analyze such input space Trojans in DNNs, and propose a theory
to explain the relationship of a model's decision regions and Trojans: a
complete and accurate Trojan corresponds to a hyperplane decision region in the
input domain. We provide a formal proof of this theory, and provide empirical
evidence to support the theory and its relaxations. Based on our analysis, we
design a novel training method that removes Trojans during training even on
poisoned datasets, and evaluate our prototype on five datasets and five
different attacks. Results show that our method outperforms existing solutions.
Code: \url{https://anonymous.4open.science/r/NOLE-84C3}.
- Abstract(参考訳): Deep Neural Networks(DNN)は、良性または有毒なデータからトロイの木馬(あるいはバックドア)を学ぶことができる。
そのようなトロイの木を利用して、敵は任意の入力に固定された入力空間摂動を加え、特定の出力(すなわちターゲットラベル)を予測するモデルを誤解させる。
本稿では、DNNにおけるそのような入力空間であるトロイの木馬を解析し、モデルの決定領域とトロイの木馬の関係を説明する理論を提案する。
この理論の正式な証明を提供し、理論とその緩和を支持する実証的な証拠を提供する。
本分析に基づいて,有毒なデータセットであってもトロイの木馬を除去する新たな訓練方法を設計し,そのプロトタイプを5つのデータセットと5つの異なる攻撃で評価する。
その結果,提案手法は既存のソリューションよりも優れていることがわかった。
コード: \url{https://anonymous.4open.science/r/NOLE-84C3}
関連論文リスト
- An Adaptive Black-box Defense against Trojan Attacks (TrojDef) [5.880596125802611]
トロイジャンバックドア(Trojan backdoor)は、ニューラルネットワーク(NN)分類器に対する中毒攻撃である。
我々は,NNの前方通過のみが可能な,より実用的なブラックボックスディフェンスTrojDefを提案する。
TrojDefは最先端の防御を著しく上回り、異なる設定で非常に安定している。
論文 参考訳(メタデータ) (2022-09-05T01:54:44Z) - Quarantine: Sparsity Can Uncover the Trojan Attack Trigger for Free [126.15842954405929]
トロイの木馬攻撃はディープニューラルネットワーク(DNN)を脅かし、ほとんどのサンプルで正常に動作させるが、トリガーを付けた入力に対して操作された結果を生成する。
そこで我々は,まず,クリーンな入力において,ほぼ完全なトロイの木馬の情報のみを保存し,かつ,すでに孤立しているサブネットワークに埋め込まれたトリガを復元する,新しいトロイの木馬ネットワーク検出方式を提案する。
論文 参考訳(メタデータ) (2022-05-24T06:33:31Z) - CLEANN: Accelerated Trojan Shield for Embedded Neural Networks [32.99727805086791]
組込みディープニューラルネットワーク(DNN)アプリケーションに対するトロイの木馬のオンライン緩和を可能にする,最初のエンドツーエンドフレームワークであるCLEANNを提案する。
トロイの木馬攻撃は、訓練中にDNNにバックドアを注入することで動作し、推論中は特定のバックドアトリガーによってトロイの木馬が活性化される。
辞書学習とスパース近似を利用して、良性データの統計的挙動を特徴づけ、トロイの木馬のトリガーを同定する。
論文 参考訳(メタデータ) (2020-09-04T05:29:38Z) - Practical Detection of Trojan Neural Networks: Data-Limited and
Data-Free Cases [87.69818690239627]
本稿では,データスカース方式におけるトロイの木馬ネットワーク(トロイの木馬網)検出の問題点について検討する。
本稿では,データ限定型TrojanNet検出器(TND)を提案する。
さらに,データサンプルにアクセスせずにTrojanNetを検出できるデータフリーTNDを提案する。
論文 参考訳(メタデータ) (2020-07-31T02:00:38Z) - Cassandra: Detecting Trojaned Networks from Adversarial Perturbations [92.43879594465422]
多くの場合、事前トレーニングされたモデルは、トロイの木馬の振る舞いをモデルに挿入するためにトレーニングパイプラインを中断したかもしれないベンダーから派生している。
本稿では,事前学習したモデルがトロイの木馬か良馬かを検証する手法を提案する。
本手法は,ニューラルネットワークの指紋を,ネットワーク勾配から学習した逆方向の摂動の形でキャプチャする。
論文 参考訳(メタデータ) (2020-07-28T19:00:40Z) - Odyssey: Creation, Analysis and Detection of Trojan Models [91.13959405645959]
トロイの木馬攻撃は、一部のトレーニングサンプルにトリガーを挿入してトレーニングパイプラインを妨害し、トリガーを含むサンプルに対してのみ悪意ある動作をするようにモデルを訓練する。
既存のトロイの木馬検出器はトリガーの種類や攻撃について強い仮定をしている。
そこで本研究では,トロヤニング過程の影響を受け,本質的特性の分析に基づく検出器を提案する。
論文 参考訳(メタデータ) (2020-07-16T06:55:00Z) - An Embarrassingly Simple Approach for Trojan Attack in Deep Neural
Networks [59.42357806777537]
トロイの木馬攻撃は、ハッカーが挿入した隠れトリガーパターンに依存する、デプロイされたディープニューラルネットワーク(DNN)を攻撃することを目的としている。
そこで本研究では,有毒データセットの再学習モデルによりトロイの木馬の挙動を注入する,従来と異なる学習自由攻撃手法を提案する。
提案したTrojanNetには,(1)小さなトリガパターンによって起動し,他の信号に対してサイレントを維持する,(2)モデルに依存しない,ほとんどのDNNに注入可能な,(3)攻撃シナリオを劇的に拡張する,(3)訓練不要のメカニズムは従来のトロイの木馬攻撃方法と比較して大規模なトレーニング作業の削減など,いくつかの優れた特性がある。
論文 参考訳(メタデータ) (2020-06-15T04:58:28Z) - Scalable Backdoor Detection in Neural Networks [61.39635364047679]
ディープラーニングモデルは、トロイの木馬攻撃に対して脆弱で、攻撃者はトレーニング中にバックドアをインストールして、結果のモデルが小さなトリガーパッチで汚染されたサンプルを誤識別させる。
本稿では,ラベル数と計算複雑性が一致しない新たなトリガリバースエンジニアリング手法を提案する。
実験では,提案手法が純モデルからトロイの木馬モデルを分離する際の完全なスコアを達成できることが観察された。
論文 参考訳(メタデータ) (2020-06-10T04:12:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。