論文の概要: Investigating Feature Attribution for 5G Network Intrusion Detection
- arxiv url: http://arxiv.org/abs/2509.10206v1
- Date: Fri, 12 Sep 2025 12:55:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-15 16:03:08.08795
- Title: Investigating Feature Attribution for 5G Network Intrusion Detection
- Title(参考訳): 5Gネットワーク侵入検出における特徴属性の検討
- Authors: Federica Uccello, Simin Nadjm-Tehrani,
- Abstract要約: 我々は,XGBoostモデルにより生成された警告の解釈を解析し,SHAPとVoTE-XAIの2つの手法について検討した。
スパーシリティ、それらがどの程度簡潔であるか、安定性、同じ攻撃タイプからのサンプル間でどれだけ一貫性があるか、といった説明を評価するための3つの指標を特定します。
SHAPが選択した特徴とVoTE-XAIが選択した特徴の間に有意な差異が認められたが,VoTE-XAIが選択した上位特徴はいずれも欠落していた。
- 参考スコア(独自算出の注目度): 2.406359246841227
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rise of fifth-generation (5G) networks in critical applications, it is urgent to move from detection of malicious activity to systems capable of providing a reliable verdict suitable for mitigation. In this regard, understanding and interpreting machine learning (ML) models' security alerts is crucial for enabling actionable incident response orchestration. Explainable Artificial Intelligence (XAI) techniques are expected to enhance trust by providing insights into why alerts are raised. A dominant approach statistically associates feature sets that can be correlated to a given alert. This paper starts by questioning whether such attribution is relevant for future generation communication systems, and investigates its merits in comparison with an approach based on logical explanations. We extensively study two methods, SHAP and VoTE-XAI, by analyzing their interpretations of alerts generated by an XGBoost model in three different use cases with several 5G communication attacks. We identify three metrics for assessing explanations: sparsity, how concise they are; stability, how consistent they are across samples from the same attack type; and efficiency, how fast an explanation is generated. As an example, in a 5G network with 92 features, 6 were deemed important by VoTE-XAI for a Denial of Service (DoS) variant, ICMPFlood, while SHAP identified over 20. More importantly, we found a significant divergence between features selected by SHAP and VoTE-XAI. However, none of the top-ranked features selected by SHAP were missed by VoTE-XAI. When it comes to efficiency of providing interpretations, we found that VoTE-XAI is significantly more responsive, e.g. it provides a single explanation in under 0.002 seconds, in a high-dimensional setting (478 features).
- Abstract(参考訳): クリティカルアプリケーションにおける第5世代(5G)ネットワークの台頭に伴い、悪意のある活動の検出から、軽減に適した信頼性のある判断を提供するシステムに移行することが急務である。
この点において、マシンラーニング(ML)モデルのセキュリティアラートの理解と解釈は、実行可能なインシデント対応オーケストレーションを実現する上で不可欠である。
説明可能な人工知能(XAI)技術は、なぜアラートが引き上げられるかについての洞察を提供することで、信頼性を高めることが期待されている。
支配的なアプローチは、与えられた警告に相関可能な特徴セットを統計的に関連付ける。
本稿では,このような属性が次世代通信システムに関係しているかどうかを疑問視することから始め,論理的説明に基づくアプローチと比較して,そのメリットを考察する。
我々は、XGBoostモデルによって生成された警告の解釈を、複数の5G通信攻撃を伴う3つの異なるユースケースで解析することにより、SHAPとVoTE-XAIの2つの手法を広範囲に研究した。
頻度、正確さ、安定性、同一の攻撃タイプからのサンプル間の一貫性、効率性、説明の生成速度など、説明を評価するための3つの指標を特定します。
例として、92の特徴を持つ5Gネットワークでは、Denial of Service (DoS) の変種であるICMPFloodではVoTE-XAIによって6つが重要とされ、SHAPでは20以上が特定された。
さらに重要なことは、SHAPとVoTE-XAIが選択した機能の間に大きな違いがあることである。
しかし、SHAPが選択した上位の機能はVoTE-XAIに見逃されることはなかった。
解釈の効率性に関して、VoTE-XAIはより応答性が高く、例えば、高次元設定(478特徴)において0.002秒未満で1つの説明を提供する。
関連論文リスト
- RepreGuard: Detecting LLM-Generated Text by Revealing Hidden Representation Patterns [50.401907401444404]
大規模言語モデル(LLM)は、誤用を防止し、信頼できるAIシステムを構築するために不可欠である。
本稿では,統計量に基づく効率的な検出手法であるRepreGuardを提案する。
実験結果から、RepreGuardは、平均94.92%のAUROCですべてのベースラインでID(in-distriion)とOOD(OOD)の両方のシナリオでパフォーマンスが向上していることが示された。
論文 参考訳(メタデータ) (2025-08-18T17:59:15Z) - Unifying VXAI: A Systematic Review and Framework for the Evaluation of Explainable AI [4.715895520943978]
説明可能なAI(XAI)は、モデル行動に関する人間の理解可能な説明を提供することで、この問題に対処する。
XAIメソッドの増加にもかかわらず、フィールドには標準化された評価プロトコルと適切なメトリクスに関するコンセンサスがない。
我々は、XAI(VXAI)のeValuationのための統一的なフレームワークを導入する。
論文 参考訳(メタデータ) (2025-06-18T12:25:37Z) - Visual Agents as Fast and Slow Thinkers [88.1404921693082]
本稿では、Fast and Slow Thinking機構を視覚エージェントに組み込んだFaSTを紹介する。
FaSTは、システム1/2モード間の動的選択にスイッチアダプタを使用する。
モデルの信頼性を調整し、新しいコンテキストデータを統合することで、不確実で目に見えないオブジェクトに取り組む。
論文 参考訳(メタデータ) (2024-08-16T17:44:02Z) - Critical Analysis of 5G Networks Traffic Intrusion using PCA, t-SNE and
UMAP Visualization and Classifying Attacks [0.0]
最近発表された5Gトラフィックデータセットである5G-NIDDを用いて、機械学習とディープラーニングのアプローチを用いて、ネットワークトラフィックの異常を検出する。
相互情報とPCA技術を用いてデータ次元を減少させる。
マイノリティクラスの合成レコードを挿入することで、クラス不均衡を解消する。
論文 参考訳(メタデータ) (2023-12-08T06:43:19Z) - HuntGPT: Integrating Machine Learning-Based Anomaly Detection and Explainable AI with Large Language Models (LLMs) [0.09208007322096533]
我々はランダムフォレスト分類器を応用した特殊な侵入検知ダッシュボードであるHuntGPTを提案する。
この論文は、Certified Information Security Manager (CISM) Practice Examsを通じて評価された、システムのアーキテクチャ、コンポーネント、技術的正確性について論じている。
その結果、LLMによってサポートされ、XAIと統合された会話エージェントは、侵入検出において堅牢で説明可能な、実行可能なAIソリューションを提供することを示した。
論文 参考訳(メタデータ) (2023-09-27T20:58:13Z) - Deep Attention Recognition for Attack Identification in 5G UAV
scenarios: Novel Architecture and End-to-End Evaluation [3.3253720226707992]
5Gフレームワークに固有の堅牢なセキュリティ機能にもかかわらず、攻撃者は依然として5G無人航空機(UAV)の運用を妨害する方法を見つけるだろう。
我々は,認証されたUAVに埋め込まれた小さなディープネットワークに基づく攻撃を識別するためのソリューションとして,Deep Attention Recognition (DAtR)を提案する。
論文 参考訳(メタデータ) (2023-03-03T17:10:35Z) - Be Your Own Neighborhood: Detecting Adversarial Example by the
Neighborhood Relations Built on Self-Supervised Learning [64.78972193105443]
本稿では,予測に有効な新しいAE検出フレームワークを提案する。
AEの異常な関係と拡張バージョンを区別して検出を行う。
表現を抽出し、ラベルを予測するために、既製の自己監視学習(SSL)モデルが使用される。
論文 参考訳(メタデータ) (2022-08-31T08:18:44Z) - Neuro-Symbolic Artificial Intelligence (AI) for Intent based Semantic
Communication [85.06664206117088]
6Gネットワークはデータ転送のセマンティクスと有効性(エンドユーザ)を考慮する必要がある。
観測データの背後にある因果構造を学習するための柱としてNeSy AIが提案されている。
GFlowNetは、無線システムにおいて初めて活用され、データを生成する確率構造を学ぶ。
論文 参考訳(メタデータ) (2022-05-22T07:11:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。