論文の概要: A Novel Study on Intelligent Methods and Explainable AI for Dynamic Malware Analysis
- arxiv url: http://arxiv.org/abs/2508.10652v1
- Date: Thu, 14 Aug 2025 13:49:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.341187
- Title: A Novel Study on Intelligent Methods and Explainable AI for Dynamic Malware Analysis
- Title(参考訳): 動的マルウェア解析のための知能的手法と説明可能なAIに関する新しい研究
- Authors: Richa Dasila, Vatsala Upadhyay, Samo Bobek, Abhishek Vaish,
- Abstract要約: 本研究は、マルウェア検出モデルの解釈可能性と信頼性を高めるために、説明可能なAI(XAI)技術を統合する。
この研究は、ディープラーニングモデルの内部動作を軽視し、サイバーセキュリティの文脈における予測能力のより良い理解と信頼を促進することを目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep learning models are one of the security strategies, trained on extensive datasets, and play a critical role in detecting and responding to these threats by recognizing complex patterns in malicious code. However, the opaque nature of these models-often described as "black boxes"-makes their decision-making processes difficult to understand, even for their creators. This research addresses these challenges by integrating Explainable AI (XAI) techniques to enhance the interpretability and trustworthiness of malware detection models. In this research, the use of Multi-Layer Perceptrons (MLP) for dynamic malware analysis has been considered, a less explored area, and its efficacy in detecting Metamorphic Malware, and further the effectiveness and transparency of MLPs, CNNs, RNNs, and CNN-LSTM models in malware classification, evaluating these models through the lens of Explainable AI (XAI). This comprehensive approach aims to demystify the internal workings of deep learning models, promoting a better understanding and trust in their predictive capabilities in cybersecurity contexts. Such in-depth analysis and implementation haven't been done to the best of our knowledge.
- Abstract(参考訳): ディープラーニングモデルは、広範なデータセットに基づいてトレーニングされたセキュリティ戦略のひとつであり、悪意のあるコードの複雑なパターンを認識して脅威を検出し、応答する上で重要な役割を果たす。
しかし、しばしば「ブラックボックス」と表現されるこれらのモデルの不透明な性質は、意思決定プロセスを理解するのが困難である。
本研究は、マルウェア検出モデルの解釈可能性と信頼性を高めるために、説明可能なAI(XAI)技術を統合することで、これらの課題に対処する。
本研究では,動的マルウェア解析にMLP(Multi-Layer Perceptrons)を用いることが検討され,メタモルフィックマルウェアの検出に有効であるとともに,マルウェア分類におけるMLP,CNN,RNN,CNN-LSTMモデルの有効性と透明性が検討され,これらのモデルをExplainable AI(XAI)のレンズを用いて評価している。
この包括的なアプローチは、ディープラーニングモデルの内部動作を曖昧化することを目的としており、サイバーセキュリティのコンテキストにおける予測能力をよりよく理解し、信頼することを促進する。
このような詳細な分析と実装は、私たちの知る限りでは行われていません。
関連論文リスト
- Algorithms for Adversarially Robust Deep Learning [58.656107500646364]
望ましいロバスト性を示すアルゴリズムの設計に向けた最近の進歩について論じる。
医用画像,分子識別,画像分類における最先端の一般化を実現するアルゴリズムを提案する。
我々は、堅牢な言語ベースのエージェントを設計するための進歩のフロンティアとして、新たな攻撃と防御を提案する。
論文 参考訳(メタデータ) (2025-09-23T14:48:58Z) - A Systematic Survey of Model Extraction Attacks and Defenses: State-of-the-Art and Perspectives [65.3369988566853]
近年の研究では、敵が対象モデルの機能を複製できることが示されている。
モデル抽出攻撃は知的財産権、プライバシー、システムのセキュリティに脅威をもたらす。
本稿では,攻撃機構,防衛手法,計算環境に応じてMEAを分類する新しい分類法を提案する。
論文 参考訳(メタデータ) (2025-08-20T19:49:59Z) - Continual Learning for Generative AI: From LLMs to MLLMs and Beyond [56.29231194002407]
本稿では,主流生成型AIモデルに対する連続学習手法の総合的な調査を行う。
これらのアプローチをアーキテクチャベース、正規化ベース、リプレイベースという3つのパラダイムに分類する。
我々は、トレーニング目標、ベンチマーク、コアバックボーンを含む、異なる生成モデルに対する連続的な学習設定を分析する。
論文 参考訳(メタデータ) (2025-06-16T02:27:25Z) - Expert-in-the-Loop Systems with Cross-Domain and In-Domain Few-Shot Learning for Software Vulnerability Detection [38.083049237330826]
本研究では,CWE(Common Weaknessions)を用いたPythonコードの識別をシミュレーションすることにより,ソフトウェア脆弱性評価におけるLLM(Large Language Models)の利用について検討する。
その結果,ゼロショットプロンプトは性能が低いが,少数ショットプロンプトは分類性能を著しく向上させることがわかった。
モデル信頼性、解釈可能性、敵の堅牢性といった課題は、将来の研究にとって重要な領域のままである。
論文 参考訳(メタデータ) (2025-06-11T18:43:51Z) - Large Language Model (LLM) for Software Security: Code Analysis, Malware Analysis, Reverse Engineering [3.1195311942826303]
大規模言語モデル(LLM)はサイバーセキュリティの強力なツールとして登場した。
LLMはマルウェア検出、生成、リアルタイム監視の高度な機能を提供する。
論文 参考訳(メタデータ) (2025-04-07T22:32:46Z) - The Road Less Traveled: Investigating Robustness and Explainability in CNN Malware Detection [15.43868945929965]
マルウェア分類におけるCNNの振る舞いをよりよく理解するために,定量的解析と説明可能性ツールを統合した。
難解化技術は, モデル精度を最大50%低減し, 頑健性を高めるための緩和戦略を提案する。
本研究は,ディープラーニングを用いた侵入検知システムの解釈可能性とレジリエンスの向上に寄与する。
論文 参考訳(メタデータ) (2025-03-03T10:42:00Z) - Explainable Artificial Intelligence (XAI) for Malware Analysis: A Survey of Techniques, Applications, and Open Challenges [0.0]
説明可能なAI(XAI)は、強力な検出能力を保ちながら、モデルの解釈可能性を向上させることで、このギャップに対処する。
我々は,既存のXAIフレームワーク,マルウェア分類・検出への応用,およびマルウェア検出モデルをより解釈可能なものにする上での課題について検討する。
この調査は、サイバーセキュリティにおけるMLのパフォーマンスと説明可能性のギャップを埋めようとしている研究者や実践者にとって、貴重なリソースとなる。
論文 参考訳(メタデータ) (2024-09-09T08:19:33Z) - Detecting and Understanding Vulnerabilities in Language Models via Mechanistic Interpretability [44.99833362998488]
大規模言語モデル(LLM)は、幅広いタスクで素晴らしいパフォーマンスを示している。
特にLSMは敵攻撃に弱いことが知られており、入力に対する非受容的な変更はモデルの出力を誤解させる可能性がある。
本稿では,メカニスティック・インタプリタビリティ(MI)技術に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-07-29T09:55:34Z) - Explainable Deep Learning Models for Dynamic and Online Malware Classification [0.856335408411906]
本研究の目的は,様々な実行環境にまたがる説明可能なマルウェア分類を探索することである。
我々は、動的およびオンライン分析環境から得られた特徴に基づいてマルウェアを分類するために、フィードフォワードニューラルネットワーク(FFNN)と畳み込みニューラルネットワーク(CNN)を訓練する。
計算されたグローバルおよびローカルな説明の詳細な評価を行い、制限について議論し、最終的にはバランスの取れたアプローチを達成するための推奨事項を提示します。
論文 参考訳(メタデータ) (2024-04-18T19:07:51Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Holistic Adversarial Robustness of Deep Learning Models [91.34155889052786]
敵対的堅牢性は、安全性と信頼性を確保するために、機械学習モデルの最悪のケースパフォーマンスを研究する。
本稿では,深層学習モデルの対角的ロバスト性に関する研究課題の概要と研究手法の基礎原則について概説する。
論文 参考訳(メタデータ) (2022-02-15T05:30:27Z) - Interpreting Machine Learning Malware Detectors Which Leverage N-gram
Analysis [2.6397379133308214]
サイバーセキュリティアナリストは、常にルールベースや署名ベースの検出と同じくらい解釈可能で理解可能なソリューションを好む。
本研究の目的は,MLベースのマルウェア検出装置に適用した場合の,最先端のMLモデルの解釈可能性の評価である。
論文 参考訳(メタデータ) (2020-01-27T19:10:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。