論文の概要: Explainable Artificial Intelligence (XAI) for Malware Analysis: A Survey of Techniques, Applications, and Open Challenges
- arxiv url: http://arxiv.org/abs/2409.13723v2
- Date: Fri, 07 Feb 2025 16:44:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-10 14:54:00.476026
- Title: Explainable Artificial Intelligence (XAI) for Malware Analysis: A Survey of Techniques, Applications, and Open Challenges
- Title(参考訳): マルウェア分析のための説明可能な人工知能(XAI:技術・応用・オープンチャレンジ)
- Authors: Harikha Manthena, Shaghayegh Shajarian, Jeffrey Kimmell, Mahmoud Abdelsalam, Sajad Khorsandroo, Maanak Gupta,
- Abstract要約: 説明可能なAI(XAI)は、強力な検出能力を保ちながら、モデルの解釈可能性を向上させることで、このギャップに対処する。
我々は,既存のXAIフレームワーク,マルウェア分類・検出への応用,およびマルウェア検出モデルをより解釈可能なものにする上での課題について検討する。
この調査は、サイバーセキュリティにおけるMLのパフォーマンスと説明可能性のギャップを埋めようとしている研究者や実践者にとって、貴重なリソースとなる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Machine learning (ML) has rapidly advanced in recent years, revolutionizing fields such as finance, medicine, and cybersecurity. In malware detection, ML-based approaches have demonstrated high accuracy; however, their lack of transparency poses a significant challenge. Traditional black-box models often fail to provide interpretable justifications for their predictions, limiting their adoption in security-critical environments where understanding the reasoning behind a detection is essential for threat mitigation and response. Explainable AI (XAI) addresses this gap by enhancing model interpretability while maintaining strong detection capabilities. This survey presents a comprehensive review of state-of-the-art ML techniques for malware analysis, with a specific focus on explainability methods. We examine existing XAI frameworks, their application in malware classification and detection, and the challenges associated with making malware detection models more interpretable. Additionally, we explore recent advancements and highlight open research challenges in the field of explainable malware analysis. By providing a structured overview of XAI-driven malware detection approaches, this survey serves as a valuable resource for researchers and practitioners seeking to bridge the gap between ML performance and explainability in cybersecurity.
- Abstract(参考訳): 近年、機械学習(ML)は急速に進歩し、金融、医療、サイバーセキュリティといった分野に革命をもたらした。
マルウェア検出において、MLベースのアプローチは高い精度を示しているが、透明性の欠如は重大な課題となっている。
従来のブラックボックスモデルは予測に対する解釈可能な正当性の提供に失敗することが多く、脅威の緩和と応答には検出の背後にある推論を理解することが不可欠であるセキュリティクリティカルな環境での採用を制限する。
説明可能なAI(XAI)は、強力な検出能力を保ちながら、モデルの解釈可能性を向上させることで、このギャップに対処する。
本調査では,マルウェア解析における最先端のML手法を概観的に検証し,説明可能性手法に着目する。
我々は,既存のXAIフレームワーク,マルウェア分類・検出への応用,およびマルウェア検出モデルをより解釈可能なものにする上での課題について検討する。
さらに、最近の進歩を探求し、説明可能なマルウェア分析の分野におけるオープンな研究課題を強調した。
XAIによるマルウェア検出手法の構造化された概要を提供することで、この調査は、機械学習のパフォーマンスとサイバーセキュリティの説明可能性の間のギャップを埋めようとしている研究者や実践者にとって貴重なリソースとなる。
関連論文リスト
- Computational Safety for Generative AI: A Signal Processing Perspective [65.268245109828]
計算安全性は、GenAIにおける安全性の定量的評価、定式化、研究を可能にする数学的枠組みである。
ジェイルブレイクによる悪意のあるプロンプトを検出するために, 感度解析と損失景観解析がいかに有効かを示す。
我々は、AIの安全性における信号処理の鍵となる研究課題、機会、そして重要な役割について論じる。
論文 参考訳(メタデータ) (2025-02-18T02:26:50Z) - Survey on AI-Generated Media Detection: From Non-MLLM to MLLM [51.91311158085973]
AI生成メディアを検出する方法は急速に進化してきた。
MLLMに基づく汎用検出器は、信頼性検証、説明可能性、ローカライゼーション機能を統合する。
倫理的・セキュリティ的な配慮が、重要な世界的な懸念として浮上している。
論文 参考訳(メタデータ) (2025-02-07T12:18:20Z) - Predicting Vulnerability to Malware Using Machine Learning Models: A Study on Microsoft Windows Machines [0.0]
本研究では機械学習(ML)技術を活用した効果的なマルウェア検出戦略の必要性に対処する。
本研究の目的は、個々のマシンの特定の状況に基づいて、マルウェアの脆弱性を正確に予測する高度なMLモデルを開発することである。
論文 参考訳(メタデータ) (2025-01-05T10:04:58Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Progressing from Anomaly Detection to Automated Log Labeling and
Pioneering Root Cause Analysis [53.24804865821692]
本研究では、ログ異常の分類を導入し、ラベル付けの課題を軽減するために、自動ラベリングについて検討する。
この研究は、根本原因分析が異常検出に続く未来を予見し、異常の根本原因を解明する。
論文 参考訳(メタデータ) (2023-12-22T15:04:20Z) - Adversarial attacks and defenses in explainable artificial intelligence:
A survey [11.541601343587917]
敵機械学習(AdvML)の最近の進歩は、最先端の説明手法の限界と脆弱性を強調している。
本調査は、機械学習モデルの説明に対する敵攻撃に関する総合的な研究の概要を提供する。
論文 参考訳(メタデータ) (2023-06-06T09:53:39Z) - Harnessing the Speed and Accuracy of Machine Learning to Advance Cybersecurity [0.0]
従来のシグネチャベースのマルウェア検出方法は、複雑な脅威を検出するのに制限がある。
近年、機械学習はマルウェアを効果的に検出する有望なソリューションとして出現している。
MLアルゴリズムは、大規模なデータセットを分析し、人間が識別するのが困難なパターンを特定することができる。
論文 参考訳(メタデータ) (2023-02-24T02:42:38Z) - Practical Machine Learning Safety: A Survey and Primer [81.73857913779534]
自動運転車のような安全クリティカルなアプリケーションにおける機械学習アルゴリズムのオープンワールド展開は、さまざまなML脆弱性に対処する必要がある。
一般化エラーを低減し、ドメイン適応を実現し、外乱例や敵攻撃を検出するための新しいモデルと訓練技術。
我々の組織は、MLアルゴリズムの信頼性を異なる側面から向上するために、最先端のML技術を安全戦略にマッピングする。
論文 参考訳(メタデータ) (2021-06-09T05:56:42Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Towards interpreting ML-based automated malware detection models: a
survey [4.721069729610892]
既存の機械学習モデルのほとんどはブラックボックスで、プレディションの結果は予測不能になった。
本論文は,MLベースのマルウェア検出器の解釈可能性に関する既存の研究を検討し,分類することを目的とする。
論文 参考訳(メタデータ) (2021-01-15T17:34:40Z) - Interpreting Machine Learning Malware Detectors Which Leverage N-gram
Analysis [2.6397379133308214]
サイバーセキュリティアナリストは、常にルールベースや署名ベースの検出と同じくらい解釈可能で理解可能なソリューションを好む。
本研究の目的は,MLベースのマルウェア検出装置に適用した場合の,最先端のMLモデルの解釈可能性の評価である。
論文 参考訳(メタデータ) (2020-01-27T19:10:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。