論文の概要: Malware Classification using Diluted Convolutional Neural Network with Fast Gradient Sign Method
- arxiv url: http://arxiv.org/abs/2601.09933v1
- Date: Wed, 14 Jan 2026 23:35:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:18.919238
- Title: Malware Classification using Diluted Convolutional Neural Network with Fast Gradient Sign Method
- Title(参考訳): 高速勾配符号法による希釈畳み込みニューラルネットワークを用いたマルウェア分類
- Authors: Ashish Anand, Bhupendra Singh, Sunil Khemka, Bireswar Banerjee, Vishi Singh Bhatia, Piyush Ranjan,
- Abstract要約: 本研究では,マルウェア分類のための拡散畳み込みニューラルネットワーク (FGSM DICNN) を用いた高速勾配符号法を提案する。
DICNNには、受容野を増加させる希薄な畳み込みが含まれており、モデルが長距離にわたって分散したマルウェアパターンをキャプチャすることができる。
提案したFGSM DICNNモデルは99.44%の精度を実現し、Custom Deep Neural Network (DCNN)のような既存のアプローチよりも優れている。
- 参考スコア(独自算出の注目度): 1.8860475916194535
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Android malware has become an increasingly critical threat to organizations, society and individuals, posing significant risks to privacy, data security and infrastructure. As malware continues to evolve in terms of complexity and sophistication, the mitigation and detection of these malicious software instances have become more time consuming and challenging particularly due to the requirement of large number of features to identify potential malware. To address these challenges, this research proposes Fast Gradient Sign Method with Diluted Convolutional Neural Network (FGSM DICNN) method for malware classification. DICNN contains diluted convolutions which increases receptive field, enabling the model to capture dispersed malware patterns across long ranges using fewer features without adding parameters. Additionally, the FGSM strategy enhance the accuracy by using one-step perturbations during training that provides more defensive advantage of lower computational cost. This integration helps to manage high classification accuracy while reducing the dependence on extensive feature sets. The proposed FGSM DICNN model attains 99.44% accuracy while outperforming other existing approaches such as Custom Deep Neural Network (DCNN).
- Abstract(参考訳): Androidのマルウェアは、組織、社会、個人にとってますます重大な脅威となり、プライバシー、データセキュリティ、インフラに重大なリスクをもたらしている。
マルウェアは複雑さと高度化の観点から進化し続けており、悪意のあるソフトウェアインスタンスの緩和と検出は、特に潜在的なマルウェアを特定するために多くの機能を必要とするため、より時間がかかり、困難になっている。
これらの課題に対処するため、マルウェア分類のためのFGSM DICNN法(Fluted Convolutional Neural Network)を提案する。
DICNNには、受容野を増加させる希薄な畳み込みが含まれており、パラメータを追加することなく、より少ない機能を使用して、長距離にわたって分散したマルウェアパターンをキャプチャすることができる。
さらに、FGSM戦略は、トレーニング中に1ステップの摂動を用いることで、より低い計算コストの防御的利点を提供することにより、精度を高める。
この統合は、広範な機能セットへの依存を減らしながら、高い分類精度を管理するのに役立つ。
提案されたFGSM DICNNモデルは99.44%の精度を実現し、Custom Deep Neural Network (DCNN)のような既存のアプローチよりも優れている。
関連論文リスト
- MalLoc: Toward Fine-grained Android Malicious Payload Localization via LLMs [44.97660453235412]
MalLocは、Androidマルウェアの詳細なレベルで悪意のあるペイロードをローカライズするための、新しいアプローチである。
この研究は、振る舞いレベルの悪意のあるロジックに対する深い洞察を可能にすることによって、従来の検出と分類を超えて進んでいる。
論文 参考訳(メタデータ) (2025-08-25T10:05:44Z) - Explainable Android Malware Detection and Malicious Code Localization Using Graph Attention [1.2277343096128712]
XAIDroidはマルウェアの中に悪意のあるコードスニペットを自動的に配置する新しいアプローチである。
APIコールグラフとしてコードを表現することで、XAIDroidはセマンティックコンテキストをキャプチャし、難読化に対するレジリエンスを高める。
合成および実世界のマルウェアデータセットの評価は、我々のアプローチの有効性を示し、悪意のあるコードローカライゼーションのための高いリコールとF1スコア率を達成する。
論文 参考訳(メタデータ) (2025-03-10T09:33:37Z) - CONTINUUM: Detecting APT Attacks through Spatial-Temporal Graph Neural Networks [0.9553673944187253]
Advanced Persistent Threats (APT) はサイバーセキュリティにおいて重要な課題である。
従来の侵入検知システム(IDS)は、これらの多段階攻撃を検出するのに不足することが多い。
論文 参考訳(メタデータ) (2025-01-06T12:43:59Z) - Enhanced Convolution Neural Network with Optimized Pooling and Hyperparameter Tuning for Network Intrusion Detection [0.0]
ネットワーク侵入検知システム(NIDS)のための拡張畳み込みニューラルネットワーク(EnCNN)を提案する。
我々はEnCNNと、ロジスティック回帰、決定木、サポートベクトルマシン(SVM)、ランダムフォレスト、AdaBoost、Votting Ensembleといったアンサンブル手法など、さまざまな機械学習アルゴリズムを比較した。
その結果,EnCNNは検出精度を大幅に向上し,最先端アプローチよりも10%向上した。
論文 参考訳(メタデータ) (2024-09-27T11:20:20Z) - Malware Classification using Deep Neural Networks: Performance
Evaluation and Applications in Edge Devices [0.0]
複数のディープニューラルネットワーク(DNN)は、マルウェアのバイナリを検出し分類するように設計されている。
エッジデバイスにこれらのDNNモデルをデプロイして、特にリソース制約のあるシナリオにおいて、リアルタイムな分類を可能にすることは、大規模なIoTシステムにとって不可欠であることが証明されている。
本研究は,マルウェア検出技術の進歩に寄与し,マルウェアの早期検出にサイバーセキュリティ対策を統合することの重要性を強調した。
論文 参考訳(メタデータ) (2023-08-21T16:34:46Z) - Adversarial training with informed data selection [53.19381941131439]
アドリアリトレーニングは、これらの悪意のある攻撃からネットワークを守るための最も効率的なソリューションである。
本研究では,ミニバッチ学習に適用すべきデータ選択戦略を提案する。
シミュレーションの結果,ロバスト性および標準精度に関して良好な妥協が得られることがわかった。
論文 参考訳(メタデータ) (2023-01-07T12:09:50Z) - RL-DistPrivacy: Privacy-Aware Distributed Deep Inference for low latency
IoT systems [41.1371349978643]
本稿では,流通戦略の再考を通じて協調的深層推論の安全性を目標とするアプローチを提案する。
我々は、この手法を最適化として定式化し、コ推論のレイテンシとプライバシーレベルのデータのトレードオフを確立する。
論文 参考訳(メタデータ) (2022-08-27T14:50:00Z) - SInGE: Sparsity via Integrated Gradients Estimation of Neuron Relevance [37.82255888371488]
本稿では,このニューロン除去への経路の勾配変化の積分として,各ニューロンの関連性を定義した新しい勾配解析基準を提案する。
提案手法は,いくつかのデータセットやアーキテクチャ,さらにはSInGEと呼ばれるプルーニングシナリオにおいて,既存の最先端のプルーニング手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2022-07-08T18:27:42Z) - Noise-Response Analysis of Deep Neural Networks Quantifies Robustness
and Fingerprints Structural Malware [48.7072217216104]
ディープ・ニューラル・ネットワーク(DNN)は構造的マルウェア(すなわち、重みと活性化経路)を持つ
バックドアの検出は一般的に困難であり、既存の検出手法は計算に高価であり、膨大なリソースを必要とする(トレーニングデータへのアクセスなど)。
そこで本研究では,DNNの堅牢性,指紋の非線形性を定量化し,バックドアの検出を可能にする,高速な特徴生成手法を提案する。
実験の結果,既存の手法(秒対秒)よりも高い信頼度でバックドアを正確に検出できることが判明した。
論文 参考訳(メタデータ) (2020-07-31T23:52:58Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Inherent Adversarial Robustness of Deep Spiking Neural Networks: Effects
of Discrete Input Encoding and Non-Linear Activations [9.092733355328251]
スパイキングニューラルネットワーク(SNN)は、敵対的攻撃に対する固有の堅牢性の候補である。
本研究では、勾配に基づく攻撃によるSNNの対向精度が、非スパイク攻撃よりも高いことを示す。
論文 参考訳(メタデータ) (2020-03-23T17:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。