論文の概要: EvilModel: Hiding Malware Inside of Neural Network Models
- arxiv url: http://arxiv.org/abs/2107.08590v1
- Date: Mon, 19 Jul 2021 02:44:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-20 14:47:57.737900
- Title: EvilModel: Hiding Malware Inside of Neural Network Models
- Title(参考訳): evilmodel:ニューラルネットワークモデル内にマルウェアを隠す
- Authors: Zhi Wang, Chaoge Liu, Xiang Cui
- Abstract要約: 本稿では,ニューラルネットワークモデルを用いてマルウェアを隠蔽かつ検出回避する手法を提案する。
実験の結果、36.9MBのマルウェアが178MB-AlexNetモデルに1%の精度で埋め込むことができた。
この研究が、ニューラルネットワークによる攻撃に対する防御のための参照可能なシナリオを提供することを期待しています。
- 参考スコア(独自算出の注目度): 3.9303867698406707
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Delivering malware covertly and detection-evadingly is critical to advanced
malware campaigns. In this paper, we present a method that delivers malware
covertly and detection-evadingly through neural network models. Neural network
models are poorly explainable and have a good generalization ability. By
embedding malware into the neurons, malware can be delivered covertly with
minor or even no impact on the performance of neural networks. Meanwhile, since
the structure of the neural network models remains unchanged, they can pass the
security scan of antivirus engines. Experiments show that 36.9MB of malware can
be embedded into a 178MB-AlexNet model within 1% accuracy loss, and no
suspicious are raised by antivirus engines in VirusTotal, which verifies the
feasibility of this method. With the widespread application of artificial
intelligence, utilizing neural networks becomes a forwarding trend of malware.
We hope this work could provide a referenceable scenario for the defense on
neural network-assisted attacks.
- Abstract(参考訳): マルウェアを隠蔽して検出回避することは、先進的なマルウェアキャンペーンにとって重要である。
本稿では,ニューラルネットワークモデルを用いてマルウェアを隠蔽して検出回避する手法を提案する。
ニューラルネットワークモデルは説明が不十分で、一般化能力に優れています。
マルウェアをニューロンに埋め込むことで、ニューラルネットワークの性能に小さな、あるいはまったく影響を与えないマルウェアを秘密裏に届けることができる。
一方、ニューラルネットワークモデルの構造は変わっていないため、アンチウイルスエンジンのセキュリティスキャンをパスすることができる。
実験の結果、36.9MBのマルウェアが178MB-AlexNetモデルに1%の精度で埋め込むことができ、ウイルスTotalのアンチウイルスエンジンが疑わしいことはないことが判明した。
人工知能の応用が広まれば、ニューラルネットワークの利用はマルウェアの前進のトレンドとなる。
この研究が、ニューラルネットワーク支援攻撃の防御に参照可能なシナリオを提供することを願っている。
関連論文リスト
- New Approach to Malware Detection Using Optimized Convolutional Neural
Network [0.0]
本稿では,マルウェアを高精度で高精度かつ効率的に検出する,新しい畳み込み型ディープラーニングニューラルネットワークを提案する。
ベースラインモデルは当初98%の精度を達成していたが、CNNモデルの深度を高めた後、99.183まで精度が向上した。
このCNNモデルの有効性をさらに高めるため、改良されたモデルを用いて、データセット内の新しいマルウェアサンプルの予測を行う。
論文 参考訳(メタデータ) (2023-01-26T15:06:47Z) - NCTV: Neural Clamping Toolkit and Visualization for Neural Network
Calibration [66.22668336495175]
ニューラルネットワークのキャリブレーションに対する考慮の欠如は、人間から信頼を得ることはないだろう。
我々はNeural Clamping Toolkitを紹介した。これは開発者が最先端のモデルに依存しないキャリブレーションモデルを採用するのを支援するために設計された最初のオープンソースフレームワークである。
論文 参考訳(メタデータ) (2022-11-29T15:03:05Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - Few-shot Backdoor Defense Using Shapley Estimation [123.56934991060788]
我々は、深層ニューラルネットワークに対するバックドア攻撃を軽減するために、Shapley Pruningと呼ばれる新しいアプローチを開発した。
ShapPruningは、感染した数少ないニューロン(全ニューロンの1%以下)を特定し、モデルの構造と正確性を保護する。
様々な攻撃やタスクに対して,本手法の有効性とロバスト性を示す実験を行った。
論文 参考訳(メタデータ) (2021-12-30T02:27:03Z) - EvilModel 2.0: Hiding Malware Inside of Neural Network Models [7.060465882091837]
ニューラルネットワークモデルをステゴマルウェアに変えることは、AIの悪意ある使用である。
既存の手法では、マルウェアの埋め込み率が低く、モデルの性能に高い影響を与える。
本稿では,高容量かつサービス品質の劣化のないモデルにマルウェアを埋め込む新しい方法を提案する。
論文 参考訳(メタデータ) (2021-09-09T15:31:33Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Binary Black-box Evasion Attacks Against Deep Learning-based Static
Malware Detectors with Adversarial Byte-Level Language Model [11.701290164823142]
MalRNNは、制限なく回避可能なマルウェアバリアントを自動的に生成する新しいアプローチです。
MalRNNは、3つの最近のディープラーニングベースのマルウェア検出器を効果的に回避し、現在のベンチマークメソッドを上回ります。
論文 参考訳(メタデータ) (2020-12-14T22:54:53Z) - Classifying Malware Images with Convolutional Neural Network Models [2.363388546004777]
本稿では,静的マルウェア分類にいくつかの畳み込みニューラルネットワーク(CNN)モデルを用いる。
インセプションV3モデルは99.24%の精度を達成しており、現在の最先端システムによって達成される98.52%の精度よりも優れている。
論文 参考訳(メタデータ) (2020-10-30T07:39:30Z) - Data Augmentation Based Malware Detection using Convolutional Neural
Networks [0.0]
サイバー攻撃は、サイバー世界におけるマルウェアの増加によって広く見られた。
この種のマルウェアの最も重要な特徴は、あるコンピュータから別のコンピュータへ伝播する際に形を変えることである。
本稿では, 画像拡張強化深部畳み込みニューラルネットワークモデルを用いて, 変成マルウェア環境におけるマルウェア群の検出を実現することを目的とする。
論文 参考訳(メタデータ) (2020-10-05T08:58:07Z) - Noise-Response Analysis of Deep Neural Networks Quantifies Robustness
and Fingerprints Structural Malware [48.7072217216104]
ディープ・ニューラル・ネットワーク(DNN)は構造的マルウェア(すなわち、重みと活性化経路)を持つ
バックドアの検出は一般的に困難であり、既存の検出手法は計算に高価であり、膨大なリソースを必要とする(トレーニングデータへのアクセスなど)。
そこで本研究では,DNNの堅牢性,指紋の非線形性を定量化し,バックドアの検出を可能にする,高速な特徴生成手法を提案する。
実験の結果,既存の手法(秒対秒)よりも高い信頼度でバックドアを正確に検出できることが判明した。
論文 参考訳(メタデータ) (2020-07-31T23:52:58Z) - Scalable Backdoor Detection in Neural Networks [61.39635364047679]
ディープラーニングモデルは、トロイの木馬攻撃に対して脆弱で、攻撃者はトレーニング中にバックドアをインストールして、結果のモデルが小さなトリガーパッチで汚染されたサンプルを誤識別させる。
本稿では,ラベル数と計算複雑性が一致しない新たなトリガリバースエンジニアリング手法を提案する。
実験では,提案手法が純モデルからトロイの木馬モデルを分離する際の完全なスコアを達成できることが観察された。
論文 参考訳(メタデータ) (2020-06-10T04:12:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。