論文の概要: Creating an Explainable Intrusion Detection System Using Self Organizing
Maps
- arxiv url: http://arxiv.org/abs/2207.07465v1
- Date: Fri, 15 Jul 2022 13:18:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-18 18:18:35.765469
- Title: Creating an Explainable Intrusion Detection System Using Self Organizing
Maps
- Title(参考訳): 自己組織化マップを用いた説明可能な侵入検知システムの構築
- Authors: Jesse Ables and Thomas Kirby and William Anderson and Sudip Mittal and
Shahram Rahimi and Ioana Banicescu and Maria Seale
- Abstract要約: 我々は、説明可能な人工知能(XAI)の現在の機能に基づく説明可能な侵入検知システム(X-IDS)を開発する。
アナリストは、グローバルな説明を使って、特定のIDSモデルがどのように予測を計算するかについての一般的なアイデアを得ることができる。
特定の予測値が計算された理由を説明するために、個々のデータポイントに対して局所的な説明が生成される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern Artificial Intelligence (AI) enabled Intrusion Detection Systems (IDS)
are complex black boxes. This means that a security analyst will have little to
no explanation or clarification on why an IDS model made a particular
prediction. A potential solution to this problem is to research and develop
Explainable Intrusion Detection Systems (X-IDS) based on current capabilities
in Explainable Artificial Intelligence (XAI). In this paper, we create a Self
Organizing Maps (SOMs) based X-IDS system that is capable of producing
explanatory visualizations. We leverage SOM's explainability to create both
global and local explanations. An analyst can use global explanations to get a
general idea of how a particular IDS model computes predictions. Local
explanations are generated for individual datapoints to explain why a certain
prediction value was computed. Furthermore, our SOM based X-IDS was evaluated
on both explanation generation and traditional accuracy tests using the NSL-KDD
and the CIC-IDS-2017 datasets.
- Abstract(参考訳): 現代の人工知能(AI)による侵入検知システム(IDS)は複雑なブラックボックスである。
つまり、セキュリティアナリストは、IDSモデルが特定の予測を行った理由の説明や明確化をほとんど、あるいは全く行わない。
この問題の潜在的な解決策は、説明可能な人工知能(XAI)の現在の能力に基づいて、説明可能な侵入検知システム(X-IDS)の研究と開発である。
本稿では,説明的視覚化が可能な自己組織化マップ(SOM)ベースのX-IDSシステムを構築する。
我々はSOMの説明可能性を活用し、グローバルな説明とローカルな説明の両方を作成する。
アナリストは、グローバル説明を使用して、特定のidモデルがどのように予測を計算するかの一般的な考えを得ることができます。
特定の予測値が計算された理由を説明するために、個々のデータポイントに対して局所的な説明が生成される。
さらに,NSL-KDDとCIC-IDS-2017データセットを用いて,説明生成と従来の精度試験の両面からSOMベースのX-IDSを評価した。
関連論文リスト
- XForecast: Evaluating Natural Language Explanations for Time Series Forecasting [72.57427992446698]
時系列予測は、特に正確な予測に依存するステークホルダーにとって、意思決定を支援する。
伝統的に説明可能なAI(XAI)メソッドは、機能や時間的重要性を基盤とするものであり、専門家の知識を必要とすることが多い。
時系列データにおける複雑な因果関係のため,予測NLEの評価は困難である。
論文 参考訳(メタデータ) (2024-10-18T05:16:39Z) - States Hidden in Hidden States: LLMs Emerge Discrete State Representations Implicitly [72.24742240125369]
本稿では,チェーン・オブ・ステップ・バイ・ステップの解に頼らずに,拡張された計算列を実行する本質的な能力を明らかにする。
注目すべきは、最も先進的なモデルでは、2桁の加算結果を直接出力できることだ。
論文 参考訳(メタデータ) (2024-07-16T06:27:22Z) - Feature Attribution Explanations for Spiking Neural Networks [3.5824464725360077]
第三世代のニューラルネットワークであるスパイキングニューラルネットワーク(SNN)は、ハードウェア上で効率的に実装できる。
ニューロモルフィックチップの実装は、機械学習ベースの自律制御やインテリジェントなバイオメディカルデバイスなど、幅広い応用を開放する。
SNNの局所的説明法であるtextitTemporal Spike Attribution (TSA) を提案する。
論文 参考訳(メタデータ) (2023-11-02T21:30:56Z) - Representing Timed Automata and Timing Anomalies of Cyber-Physical
Production Systems in Knowledge Graphs [51.98400002538092]
本稿では,学習されたタイムドオートマトンとシステムに関する公式知識グラフを組み合わせることで,CPPSのモデルベース異常検出を改善することを目的とする。
モデルと検出された異常の両方を知識グラフに記述し、モデルと検出された異常をより容易に解釈できるようにする。
論文 参考訳(メタデータ) (2023-08-25T15:25:57Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Explainable Intrusion Detection Systems Using Competitive Learning
Techniques [0.0]
我々はDARPAが推奨する説明可能なシステムに基づくX-IDSアーキテクチャを作成する。
私たちは、自己組織化マップ(SOM)、自己組織化マップ(Growing Self Organizing Maps、GSOM)、階層的自己組織化マップ(Growing Hierarchical Self Organizing Map、GHSOM)といったCLアルゴリズムを活用しています。
我々のアーキテクチャはNSL-KDDとCIC-IDS-2017ベンチマークデータセットを用いてテストされ、EBLモデルよりも1% - 3%低い精度で生成する。
論文 参考訳(メタデータ) (2023-03-30T13:58:47Z) - Explainable Intrusion Detection Systems (X-IDS): A Survey of Current
Methods, Challenges, and Opportunities [0.0]
侵入検知システム(IDS)は、大量のデータを高い予測精度で処理できるため、広く採用されている。
深層学習(DL)技術を用いて設計されたIDSは、ブラックボックスモデルとして扱われることが多く、予測の正当化は提供されない。
この調査では、IDSの最先端AI(XAI)とその現在の課題についてレビューし、これらの課題がX-IDSの設計にどのように当てはまるかを論じる。
論文 参考訳(メタデータ) (2022-07-13T14:31:46Z) - Interpretable Mixture of Experts [71.55701784196253]
Interpretable Mixture of Experts (IME)は本質的に解釈可能なモデリングフレームワークである。
IMEは単一の解釈可能なモデルよりも正確であることが示され、既存の最先端のDeep Neural Networks(DNN)と正確に比較できる。
IMEの説明は、ユーザスタディを通じて一般的に使われているポストホックな説明法と比較される。
論文 参考訳(メタデータ) (2022-06-05T06:40:15Z) - Explaining Network Intrusion Detection System Using Explainable AI
Framework [0.5076419064097734]
侵入検知システムは、今日の世界のサイバー安全の重要なレイヤーの1つです。
本稿では,ディープニューラルネットワークを用いてネットワーク侵入検出を行った。
また、機械学習パイプラインの各段階で透明性を追加する説明可能なAIフレームワークも提案しました。
論文 参考訳(メタデータ) (2021-03-12T07:15:09Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Deceptive AI Explanations: Creation and Detection [3.197020142231916]
我々は、AIモデルを用いて、偽りの説明を作成し、検出する方法について検討する。
実験的な評価として,GradCAMによるテキスト分類と説明の変更に着目した。
被験者200名を対象に, 偽装説明がユーザに与える影響について検討した。
論文 参考訳(メタデータ) (2020-01-21T16:41:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。