論文の概要: Detecting Cybersecurity Threats by Integrating Explainable AI with SHAP Interpretability and Strategic Data Sampling
- arxiv url: http://arxiv.org/abs/2602.19087v1
- Date: Sun, 22 Feb 2026 08:01:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.474871
- Title: Detecting Cybersecurity Threats by Integrating Explainable AI with SHAP Interpretability and Strategic Data Sampling
- Title(参考訳): 説明可能なAIとSHAP解釈性とストラテジックデータサンプリングを統合したサイバーセキュリティの脅威検出
- Authors: Norrakith Srisumrith, Sunantha Sodsee,
- Abstract要約: このフレームワークは、脅威検出のためにAIをデプロイする際の3つの根本的な課題に対処する。
本手法は,計算オーバーヘッドを低減しつつ検出効率を維持する。
セキュリティ運用センターに信頼できるAIシステムをデプロイするための堅牢な基盤を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The critical need for transparent and trustworthy machine learning in cybersecurity operations drives the development of this integrated Explainable AI (XAI) framework. Our methodology addresses three fundamental challenges in deploying AI for threat detection: handling massive datasets through Strategic Sampling Methodology that preserves class distributions while enabling efficient model development; ensuring experimental rigor via Automated Data Leakage Prevention that systematically identifies and removes contaminated features; and providing operational transparency through Integrated XAI Implementation using SHAP analysis for model-agnostic interpretability across algorithms. Applied to the CIC-IDS2017 dataset, our approach maintains detection efficacy while reducing computational overhead and delivering actionable explanations for security analysts. The framework demonstrates that explainability, computational efficiency, and experimental integrity can be simultaneously achieved, providing a robust foundation for deploying trustworthy AI systems in security operations centers where decision transparency is paramount.
- Abstract(参考訳): サイバーセキュリティ運用における透明で信頼性の高い機械学習に対する重要なニーズは、この統合可能な説明可能なAI(XAI)フレームワークの開発を促進する。
我々の手法は,脅威検出のためのAIをデプロイする上で,3つの基本的な課題に対処する:戦略サンプリング手法による大規模データセットの処理,効率的なモデル開発を実現するためのクラス分布の保存,汚染された特徴を体系的に識別・削除する自動データ漏洩防止による実験リガーの確保,アルゴリズム間のモデルに依存しない解釈性のためのSHAP分析を用いた統合XAI実装による運用透過性の提供。
CIC-IDS2017データセットに適用すると、計算オーバーヘッドを低減し、セキュリティアナリストに実行可能な説明を提供するとともに、検出効率を維持できる。
このフレームワークは、説明可能性、計算効率、実験的な整合性を同時に達成できることを示し、決定の透明性が最重要であるセキュリティ運用センターに信頼性の高いAIシステムをデプロイするための堅牢な基盤を提供する。
関連論文リスト
- Multi-Agent Collaborative Intrusion Detection for Low-Altitude Economy IoT: An LLM-Enhanced Agentic AI Framework [60.72591149679355]
低高度経済の急速な拡大により、インターネット・オブ・モノ(LAE-IoT)ネットワークは前例のないセキュリティ上の課題を生んだ。
従来の侵入検知システムは、空中IoT環境のユニークな特徴に対処できない。
LAE-IoTネットワークにおける侵入検出を強化するための大規模言語モデル(LLM)対応エージェントAIフレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-25T12:47:25Z) - A Quantitative Evaluation Framework for Explainable AI in Semantic Segmentation [0.20999222360659606]
本研究は、意味的セグメンテーションにおける説明可能なAI(XAI)を評価するための総合的な定量的評価フレームワークを紹介する。
このフレームワークは、ピクセルレベルの評価戦略と慎重に設計されたメトリクスを統合して、きめ細かい解釈可能性の洞察を得る。
これらの知見は、透明で信頼性があり、説明可能なセマンティックセグメンテーションモデルの開発を促進する。
論文 参考訳(メタデータ) (2025-10-28T13:27:38Z) - Revisiting Vulnerability Patch Localization: An Empirical Study and LLM-Based Solution [44.388332647211776]
オープンソースのソフトウェア脆弱性検出は、ソフトウェアのセキュリティを維持し、ソフトウェアサプライチェーンの整合性を確保するための重要なコンポーネントである。
従来の検出方法は、大量のコミット履歴を処理する際に、大きなスケーラビリティの課題に直面している。
バージョン駆動型候補フィルタリングと大規模言語モデルに基づく多ラウンド対話投票を組み合わせた新しい2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-19T09:09:55Z) - White-Basilisk: A Hybrid Model for Code Vulnerability Detection [45.03594130075282]
我々は、優れた性能を示す脆弱性検出の新しいアプローチであるWhite-Basiliskを紹介する。
White-Basiliskは、パラメータ数2億の脆弱性検出タスクで結果を得る。
この研究は、コードセキュリティにおける新しいベンチマークを確立し、コンパクトで効率的に設計されたモデルが、特定のタスクにおいてより大きなベンチマークよりも優れているという実証的な証拠を提供する。
論文 参考訳(メタデータ) (2025-07-11T12:39:25Z) - Expert-in-the-Loop Systems with Cross-Domain and In-Domain Few-Shot Learning for Software Vulnerability Detection [38.083049237330826]
本研究では,CWE(Common Weaknessions)を用いたPythonコードの識別をシミュレーションすることにより,ソフトウェア脆弱性評価におけるLLM(Large Language Models)の利用について検討する。
その結果,ゼロショットプロンプトは性能が低いが,少数ショットプロンプトは分類性能を著しく向上させることがわかった。
モデル信頼性、解釈可能性、敵の堅牢性といった課題は、将来の研究にとって重要な領域のままである。
論文 参考訳(メタデータ) (2025-06-11T18:43:51Z) - Computational Safety for Generative AI: A Signal Processing Perspective [65.268245109828]
計算安全性は、GenAIにおける安全性の定量的評価、定式化、研究を可能にする数学的枠組みである。
ジェイルブレイクによる悪意のあるプロンプトを検出するために, 感度解析と損失景観解析がいかに有効かを示す。
我々は、AIの安全性における信号処理の鍵となる研究課題、機会、そして重要な役割について論じる。
論文 参考訳(メタデータ) (2025-02-18T02:26:50Z) - LENS-XAI: Redefining Lightweight and Explainable Network Security through Knowledge Distillation and Variational Autoencoders for Scalable Intrusion Detection in Cybersecurity [0.0]
本研究は軽量説明可能ネットワークセキュリティフレームワーク(LENS-XAI)を紹介する。
LENS-XAIは、堅牢な侵入検知と、拡張された解釈可能性とスケーラビリティを組み合わせる。
本研究は, 計算効率, 特徴解釈可能性, 実世界の応用性に対処することで, IDSの進歩に大きく貢献する。
論文 参考訳(メタデータ) (2025-01-01T10:00:49Z) - An Adaptive End-to-End IoT Security Framework Using Explainable AI and LLMs [1.9662978733004601]
本稿では,機械学習(ML),説明可能なAI(XAI),大規模言語モデル(LLM)を活用した,リアルタイムIoT攻撃検出および応答のための革新的なフレームワークを提案する。
私たちのエンドツーエンドフレームワークは、モデル開発からデプロイメントへのシームレスな移行を促進するだけでなく、既存の研究でしばしば欠落している現実世界のアプリケーション機能も表しています。
論文 参考訳(メタデータ) (2024-09-20T03:09:23Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。