論文の概要: The TrojAI Software Framework: An OpenSource tool for Embedding Trojans
into Deep Learning Models
- arxiv url: http://arxiv.org/abs/2003.07233v1
- Date: Fri, 13 Mar 2020 01:45:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 02:24:54.367088
- Title: The TrojAI Software Framework: An OpenSource tool for Embedding Trojans
into Deep Learning Models
- Title(参考訳): TrojAI Software Framework: ディープラーニングモデルにトロイの木を埋め込むオープンソースツール
- Authors: Kiran Karra, Chace Ashcraft, Neil Fendley
- Abstract要約: TrojAIは、トリガデータセットと関連するディープラーニングモデルを大規模に生成できる、Pythonツールのオープンソースセットである。
トリガーの性質,訓練バッチサイズ,データセット中毒率はいずれもトロイの木馬の埋め込みの成功に影響を及ぼすことを示す。
我々は、トロイの木馬MNISTモデルに対してニューラルクリーンスを試験し、トレーニングされたモデルの異常を約18%の時間で検出することに成功した。
- 参考スコア(独自算出の注目度): 4.8986598953553555
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce the TrojAI software framework, an open source set
of Python tools capable of generating triggered (poisoned) datasets and
associated deep learning (DL) models with trojans at scale. We utilize the
developed framework to generate a large set of trojaned MNIST classifiers, as
well as demonstrate the capability to produce a trojaned reinforcement-learning
model using vector observations. Results on MNIST show that the nature of the
trigger, training batch size, and dataset poisoning percentage all affect
successful embedding of trojans. We test Neural Cleanse against the trojaned
MNIST models and successfully detect anomalies in the trained models
approximately $18\%$ of the time. Our experiments and workflow indicate that
the TrojAI software framework will enable researchers to easily understand the
effects of various configurations of the dataset and training hyperparameters
on the generated trojaned deep learning model, and can be used to rapidly and
comprehensively test new trojan detection methods.
- Abstract(参考訳): 本稿では、トロイの木馬を用いてトリガ(汚染)データセットと関連するディープラーニング(dl)モデルを生成することができるオープンソースのpythonツールセットであるtrojai software frameworkを紹介する。
開発したフレームワークを用いて、大量のトロイの木馬MNIST分類器を生成し、ベクトル観測を用いてトロイの木馬強化学習モデルを作成する能力を実証する。
MNISTの結果、トリガーの性質、訓練バッチサイズ、データセット中毒率はいずれもトロイの木馬の埋め込みの成功に影響を及ぼすことが示された。
トロイの木馬mnistモデルに対して神経清浄をテストし,トレーニングモデルの異常を約18%の確率で検出することに成功した。
我々の実験とワークフローは、TrojAIソフトウェアフレームワークが、データセットの様々な構成やハイパーパラメータが生成したトロイの木馬深層学習モデルに与える影響を容易に理解し、新しいトロイの木馬検出手法を迅速かつ包括的にテストできることを示している。
関連論文リスト
- Trojan Model Detection Using Activation Optimization [15.032071953322594]
機械学習モデルのトレーニングは非常に費用がかからない。
事前訓練されたモデルはトロイア攻撃に感染することがある。
本稿では,トロイの木馬モデルを検出する新しい方法を提案する。
論文 参考訳(メタデータ) (2023-06-08T02:17:29Z) - PerD: Perturbation Sensitivity-based Neural Trojan Detection Framework
on NLP Applications [21.854581570954075]
トロイの木馬の攻撃は被害者にバックドアを埋め込み、入力空間のトリガーによって起動される。
本稿では,入力に特別な摂動を導入する際に,モデル出力のずれを解析し,モデルレベルのトロイの木馬検出フレームワークを提案する。
提案手法の有効性を,TrojAIが作成したNLPモデルのデータセットとTrojaned NLPモデルの公開データセットに示す。
論文 参考訳(メタデータ) (2022-08-08T22:50:03Z) - CARLA-GeAR: a Dataset Generator for a Systematic Evaluation of
Adversarial Robustness of Vision Models [61.68061613161187]
本稿では,合成データセットの自動生成ツールであるCARLA-GeARについて述べる。
このツールは、Python APIを使用して、CARLAシミュレータ上に構築されており、自律運転のコンテキストにおいて、いくつかのビジョンタスク用のデータセットを生成することができる。
本稿では,CARLA-GeARで生成されたデータセットが,現実世界の敵防衛のベンチマークとして今後どのように利用されるかを示す。
論文 参考訳(メタデータ) (2022-06-09T09:17:38Z) - Online Defense of Trojaned Models using Misattributions [18.16378666013071]
本稿では,推論時におけるディープニューラルネットワーク上のニューラルトロイの木馬検出手法を提案する。
MNIST, Fashion MNIST, German Traffic Sign Recognition Benchmark で訓練されたモデルを含む,いくつかのベンチマークに対するアプローチを評価する。
論文 参考訳(メタデータ) (2021-03-29T19:53:44Z) - Practical Detection of Trojan Neural Networks: Data-Limited and
Data-Free Cases [87.69818690239627]
本稿では,データスカース方式におけるトロイの木馬ネットワーク(トロイの木馬網)検出の問題点について検討する。
本稿では,データ限定型TrojanNet検出器(TND)を提案する。
さらに,データサンプルにアクセスせずにTrojanNetを検出できるデータフリーTNDを提案する。
論文 参考訳(メタデータ) (2020-07-31T02:00:38Z) - Cassandra: Detecting Trojaned Networks from Adversarial Perturbations [92.43879594465422]
多くの場合、事前トレーニングされたモデルは、トロイの木馬の振る舞いをモデルに挿入するためにトレーニングパイプラインを中断したかもしれないベンダーから派生している。
本稿では,事前学習したモデルがトロイの木馬か良馬かを検証する手法を提案する。
本手法は,ニューラルネットワークの指紋を,ネットワーク勾配から学習した逆方向の摂動の形でキャプチャする。
論文 参考訳(メタデータ) (2020-07-28T19:00:40Z) - Odyssey: Creation, Analysis and Detection of Trojan Models [91.13959405645959]
トロイの木馬攻撃は、一部のトレーニングサンプルにトリガーを挿入してトレーニングパイプラインを妨害し、トリガーを含むサンプルに対してのみ悪意ある動作をするようにモデルを訓練する。
既存のトロイの木馬検出器はトリガーの種類や攻撃について強い仮定をしている。
そこで本研究では,トロヤニング過程の影響を受け,本質的特性の分析に基づく検出器を提案する。
論文 参考訳(メタデータ) (2020-07-16T06:55:00Z) - An Embarrassingly Simple Approach for Trojan Attack in Deep Neural
Networks [59.42357806777537]
トロイの木馬攻撃は、ハッカーが挿入した隠れトリガーパターンに依存する、デプロイされたディープニューラルネットワーク(DNN)を攻撃することを目的としている。
そこで本研究では,有毒データセットの再学習モデルによりトロイの木馬の挙動を注入する,従来と異なる学習自由攻撃手法を提案する。
提案したTrojanNetには,(1)小さなトリガパターンによって起動し,他の信号に対してサイレントを維持する,(2)モデルに依存しない,ほとんどのDNNに注入可能な,(3)攻撃シナリオを劇的に拡張する,(3)訓練不要のメカニズムは従来のトロイの木馬攻撃方法と比較して大規模なトレーニング作業の削減など,いくつかの優れた特性がある。
論文 参考訳(メタデータ) (2020-06-15T04:58:28Z) - Scalable Backdoor Detection in Neural Networks [61.39635364047679]
ディープラーニングモデルは、トロイの木馬攻撃に対して脆弱で、攻撃者はトレーニング中にバックドアをインストールして、結果のモデルが小さなトリガーパッチで汚染されたサンプルを誤識別させる。
本稿では,ラベル数と計算複雑性が一致しない新たなトリガリバースエンジニアリング手法を提案する。
実験では,提案手法が純モデルからトロイの木馬モデルを分離する際の完全なスコアを達成できることが観察された。
論文 参考訳(メタデータ) (2020-06-10T04:12:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。