論文の概要: EvilModel 2.0: Hiding Malware Inside of Neural Network Models
- arxiv url: http://arxiv.org/abs/2109.04344v1
- Date: Thu, 9 Sep 2021 15:31:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-10 14:06:23.341887
- Title: EvilModel 2.0: Hiding Malware Inside of Neural Network Models
- Title(参考訳): evilmodel 2.0:ニューラルネットワークモデル内にマルウェアを隠す
- Authors: Zhi Wang, Chaoge Liu, Xiang Cui, Jie Yin
- Abstract要約: ニューラルネットワークモデルをステゴマルウェアに変えることは、AIの悪意ある使用である。
既存の手法では、マルウェアの埋め込み率が低く、モデルの性能に高い影響を与える。
本稿では,高容量かつサービス品質の劣化のないモデルにマルウェアを埋め込む新しい方法を提案する。
- 参考スコア(独自算出の注目度): 7.060465882091837
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While artificial intelligence (AI) is widely applied in various areas, it is
also being used maliciously. It is necessary to study and predict AI-powered
attacks to prevent them in advance. Turning neural network models into
stegomalware is a malicious use of AI, which utilizes the features of neural
network models to hide malware while maintaining the performance of the models.
However, the existing methods have a low malware embedding rate and a high
impact on the model performance, making it not practical. Therefore, by
analyzing the composition of the neural network models, this paper proposes new
methods to embed malware in models with high capacity and no service quality
degradation. We used 19 malware samples and 10 mainstream models to build 550
malware-embedded models and analyzed the models' performance on ImageNet
dataset. A new evaluation method that combines the embedding rate, the model
performance impact and the embedding effort is proposed to evaluate the
existing methods. This paper also designs a trigger and proposes an application
scenario in attack tasks combining EvilModel with WannaCry. This paper further
studies the relationship between neural network models' embedding capacity and
the model structure, layer and size. With the widespread application of
artificial intelligence, utilizing neural networks for attacks is becoming a
forwarding trend. We hope this work can provide a reference scenario for the
defense of neural network-assisted attacks.
- Abstract(参考訳): 人工知能(AI)は様々な分野で広く応用されているが、悪意ある用途でも使われている。
事前にAIによる攻撃を阻止するためには、研究と予測が必要である。
ニューラルネットワークモデルをステゴマルウェアに変えることは、ニューラルネットワークモデルの特徴を利用して、モデルのパフォーマンスを維持しながらマルウェアを隠すAIの悪意ある使用である。
しかし,既存手法はマルウェアの埋め込み率が低く,モデルの性能に高い影響を与えるため,実用的ではない。
そこで本研究では,ニューラルネットワークモデルの構成を分析して,高容量でサービス品質の劣化のないモデルにマルウェアを埋め込む方法を提案する。
19のマルウェアサンプルと10のメインストリームモデルを用いて,550のマルウェア組込みモデルを構築し,imagenetデータセットにおけるモデルの性能解析を行った。
埋込率, モデル性能への影響, 埋込工数を組み合わせた新しい評価法を提案し, 既存手法の評価を行った。
本稿ではトリガーも設計し,悪モデルとwannacryを組み合わせたアタックタスクにおけるアプリケーションシナリオを提案する。
本稿では,ニューラルネットワークモデルの埋め込み容量とモデル構造,層,サイズとの関係についてさらに検討する。
人工知能の広範な応用により、ニューラルネットワークを攻撃に活用する傾向が強まっている。
この研究が、ニューラルネットワークによる攻撃の防御のためのリファレンスシナリオを提供できることを願っています。
関連論文リスト
- Do You Trust Your Model? Emerging Malware Threats in the Deep Learning
Ecosystem [37.650342256199096]
ニューラルネットワークに自己抽出型自己実行型マルウェアを組み込むテクニックであるMaleficNet 2.0を紹介する。
MaleficNet 2.0インジェクションテクニックはステルス性があり、モデルのパフォーマンスを低下させることなく、除去テクニックに対して堅牢である。
我々は、MaleficNet 2.0を用いた概念実証型自己抽出ニューラルネットワークマルウェアを実装し、広く採用されている機械学習フレームワークに対する攻撃の実用性を実証した。
論文 参考訳(メタデータ) (2024-03-06T10:27:08Z) - New Approach to Malware Detection Using Optimized Convolutional Neural
Network [0.0]
本稿では,マルウェアを高精度で高精度かつ効率的に検出する,新しい畳み込み型ディープラーニングニューラルネットワークを提案する。
ベースラインモデルは当初98%の精度を達成していたが、CNNモデルの深度を高めた後、99.183まで精度が向上した。
このCNNモデルの有効性をさらに高めるため、改良されたモデルを用いて、データセット内の新しいマルウェアサンプルの予測を行う。
論文 参考訳(メタデータ) (2023-01-26T15:06:47Z) - NCTV: Neural Clamping Toolkit and Visualization for Neural Network
Calibration [66.22668336495175]
ニューラルネットワークのキャリブレーションに対する考慮の欠如は、人間から信頼を得ることはないだろう。
我々はNeural Clamping Toolkitを紹介した。これは開発者が最先端のモデルに依存しないキャリブレーションモデルを採用するのを支援するために設計された最初のオープンソースフレームワークである。
論文 参考訳(メタデータ) (2022-11-29T15:03:05Z) - An Adversarial Active Sampling-based Data Augmentation Framework for
Manufacturable Chip Design [55.62660894625669]
リソグラフィーモデリングは、チップ設計マスクが製造可能であることを保証するため、チップ設計において重要な問題である。
機械学習の最近の進歩は、時間を要するリソグラフィーシミュレーションをディープニューラルネットワークに置き換えるための代替ソリューションを提供している。
本稿では,限られたデータのジレンマを解消し,機械学習モデルの性能を向上させるために,データ拡張フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-27T20:53:39Z) - Adversarial Robustness Assessment of NeuroEvolution Approaches [1.237556184089774]
CIFAR-10画像分類タスクにおける2つのNeuroEvolutionアプローチにより得られたモデルのロバスト性を評価する。
以上の結果から,進化したモデルが反復的手法で攻撃されると,その精度は通常0に低下するか0に近づきます。
これらの技法のいくつかは、元の入力に付加された摂動を悪化させ、頑丈さを損なう可能性がある。
論文 参考訳(メタデータ) (2022-07-12T10:40:19Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - EvilModel: Hiding Malware Inside of Neural Network Models [3.9303867698406707]
本稿では,ニューラルネットワークモデルを用いてマルウェアを隠蔽かつ検出回避する手法を提案する。
実験の結果、36.9MBのマルウェアが178MB-AlexNetモデルに1%の精度で埋め込むことができた。
この研究が、ニューラルネットワークによる攻撃に対する防御のための参照可能なシナリオを提供することを期待しています。
論文 参考訳(メタデータ) (2021-07-19T02:44:31Z) - Sparse Flows: Pruning Continuous-depth Models [107.98191032466544]
生成モデルにおいて,プルーニングによりニューラルネットワークの一般化が向上することを示す。
また、プルーニングは、元のネットワークに比べて最大98%少ないパラメータで、精度を損なうことなく、最小かつ効率的なニューラルODE表現を見出すことを示した。
論文 参考訳(メタデータ) (2021-06-24T01:40:17Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - Learning Queuing Networks by Recurrent Neural Networks [0.0]
データから性能モデルを導出する機械学習手法を提案する。
我々は、通常の微分方程式のコンパクトな系の観点から、それらの平均力学の決定論的近似を利用する。
これにより、ニューラルネットワークの解釈可能な構造が可能になり、システム測定からトレーニングしてホワイトボックスパラメータ化モデルを生成することができる。
論文 参考訳(メタデータ) (2020-02-25T10:56:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。