論文の概要: Explainable Intrusion Detection Systems Using Competitive Learning
Techniques
- arxiv url: http://arxiv.org/abs/2303.17387v1
- Date: Thu, 30 Mar 2023 13:58:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-31 13:20:06.084069
- Title: Explainable Intrusion Detection Systems Using Competitive Learning
Techniques
- Title(参考訳): 競合学習技術を用いた説明可能な侵入検知システム
- Authors: Jesse Ables, Thomas Kirby, Sudip Mittal, Ioana Banicescu, Shahram
Rahimi, William Anderson, Maria Seale
- Abstract要約: 我々はDARPAが推奨する説明可能なシステムに基づくX-IDSアーキテクチャを作成する。
私たちは、自己組織化マップ(SOM)、自己組織化マップ(Growing Self Organizing Maps、GSOM)、階層的自己組織化マップ(Growing Hierarchical Self Organizing Map、GHSOM)といったCLアルゴリズムを活用しています。
我々のアーキテクチャはNSL-KDDとCIC-IDS-2017ベンチマークデータセットを用いてテストされ、EBLモデルよりも1% - 3%低い精度で生成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The current state of the art systems in Artificial Intelligence (AI) enabled
intrusion detection use a variety of black box methods. These black box methods
are generally trained using Error Based Learning (EBL) techniques with a focus
on creating accurate models. These models have high performative costs and are
not easily explainable. A white box Competitive Learning (CL) based eXplainable
Intrusion Detection System (X-IDS) offers a potential solution to these
problem. CL models utilize an entirely different learning paradigm than EBL
approaches. This different learning process makes the CL family of algorithms
innately explainable and less resource intensive. In this paper, we create an
X-IDS architecture that is based on DARPA's recommendation for explainable
systems. In our architecture we leverage CL algorithms like, Self Organizing
Maps (SOM), Growing Self Organizing Maps (GSOM), and Growing Hierarchical Self
Organizing Map (GHSOM). The resulting models can be data-mined to create
statistical and visual explanations. Our architecture is tested using NSL-KDD
and CIC-IDS-2017 benchmark datasets, and produces accuracies that are 1% - 3%
less than EBL models. However, CL models are much more explainable than EBL
models. Additionally, we use a pruning process that is able to significantly
reduce the size of these CL based models. By pruning our models, we are able to
increase prediction speeds. Lastly, we analyze the statistical and visual
explanations generated by our architecture, and we give a strategy that users
could use to help navigate the set of explanations. These explanations will
help users build trust with an Intrusion Detection System (IDS), and allow
users to discover ways to increase the IDS's potency.
- Abstract(参考訳): 人工知能(AI)の最先端技術は、様々なブラックボックス手法を用いて侵入検知を可能にした。
これらのブラックボックスメソッドは一般に、正確なモデルの作成にフォーカスしたエラーベース学習(ebl)技術を使って訓練される。
これらのモデルは高い性能コストを持ち、容易に説明できない。
The white box Competitive Learning (CL) based eXplainable Intrusion Detection System (X-IDS)はこれらの問題に対する潜在的な解決策を提供する。
CLモデルはEBLアプローチとは全く異なる学習パラダイムを利用する。
この異なる学習プロセスにより、CLファミリーのアルゴリズムは本質的に説明可能であり、リソースの集中度は低い。
本稿では,DARPAが推奨する説明可能なシステムに基づくX-IDSアーキテクチャを提案する。
私たちのアーキテクチャでは、自己組織化マップ(som)、成長自己組織マップ(gsom)、成長階層自己組織化マップ(ghsom)といったclアルゴリズムを活用しています。
得られたモデルはデータマイニングされ、統計的および視覚的な説明が作成される。
我々のアーキテクチャはNSL-KDDとCIC-IDS-2017ベンチマークデータセットを用いてテストされ、EBLモデルよりも1% - 3%低い精度で生成する。
しかし、CLモデルはEBLモデルよりもずっと説明しやすい。
さらに、これらのclベースモデルのサイズを大幅に削減できるpruningプロセスも使用しています。
モデルを刈ることで、予測速度を向上できるのです。
最後に、我々は、アーキテクチャによって生成された統計的および視覚的な説明を分析し、ユーザが一連の説明をナビゲートするのに使用できる戦略を与える。
これらの説明は、ユーザがIDS(Intrusion Detection System)を使って信頼を構築するのに役立つ。
関連論文リスト
- Automated Knowledge Concept Annotation and Question Representation Learning for Knowledge Tracing [59.480951050911436]
自動知識概念アノテーションと質問表現学習のためのフレームワークであるKCQRLを提案する。
実世界の2つの学習データセット上で、15KTアルゴリズムにまたがるKCQRLの有効性を実証する。
論文 参考訳(メタデータ) (2024-10-02T16:37:19Z) - Knowledge Graph Structure as Prompt: Improving Small Language Models Capabilities for Knowledge-based Causal Discovery [10.573861741540853]
KG Structure as Promptは、共通ノードやメタパスなどの知識グラフから構造情報を即時学習に統合するための新しいアプローチである。
バイオメディカルデータセットとオープンドメインデータセットの3種類の実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-07-26T14:07:00Z) - Language models are weak learners [71.33837923104808]
本研究では,プロンプトベースの大規模言語モデルは弱い学習者として効果的に動作可能であることを示す。
これらのモデルをブースティングアプローチに組み込むことで、モデル内の知識を活用して、従来のツリーベースのブースティングよりも優れています。
結果は、プロンプトベースのLLMが、少数の学習者だけでなく、より大きな機械学習パイプラインのコンポーネントとして機能する可能性を示している。
論文 参考訳(メタデータ) (2023-06-25T02:39:19Z) - Recognizing Unseen Objects via Multimodal Intensive Knowledge Graph
Propagation [68.13453771001522]
画像の領域と対応するセマンティック埋め込みとをマッチングする多モード集中型ZSLフレームワークを提案する。
我々は、大規模な実世界のデータに基づいて、広範囲な実験を行い、そのモデルを評価する。
論文 参考訳(メタデータ) (2023-06-14T13:07:48Z) - Few-Shot Learning for Biometric Verification [2.3226893628361682]
機械学習アプリケーションでは、できるだけ多くの情報を供給することが一般的である。ほとんどの場合、モデルはより正確に予測できる大規模なデータセットを扱うことができる。
本稿では,Few-Shot 学習手法による最先端のアキュラシーと比較し,バイオメトリックスデータの検証を行う,新しいエンドツーエンド軽量アーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-12T22:49:25Z) - Implicit Offline Reinforcement Learning via Supervised Learning [83.8241505499762]
監視学習によるオフライン強化学習(RL)は、さまざまな専門レベルのポリシーによって収集されたデータセットからロボットスキルを学ぶための、シンプルで効果的な方法である。
我々は、暗黙的なモデルが返却情報を利用して、固定されたデータセットからロボットスキルを取得するために、明示的なアルゴリズムにマッチするか、あるいは性能を向上するかを示す。
論文 参考訳(メタデータ) (2022-10-21T21:59:42Z) - Greybox XAI: a Neural-Symbolic learning framework to produce
interpretable predictions for image classification [6.940242990198]
Greybox XAIは、シンボリック知識ベース(KB)を使うことで、DNNと透明モデルを構成するフレームワークである。
我々は、XAIの普遍的基準が欠如している問題に、説明が何であるかを形式化することで対処する。
この新しいアーキテクチャがどのように正確で、いくつかのデータセットで説明可能であるかを示す。
論文 参考訳(メタデータ) (2022-09-26T08:55:31Z) - Creating an Explainable Intrusion Detection System Using Self Organizing
Maps [0.0]
我々は、説明可能な人工知能(XAI)の現在の機能に基づく説明可能な侵入検知システム(X-IDS)を開発する。
アナリストは、グローバルな説明を使って、特定のIDSモデルがどのように予測を計算するかについての一般的なアイデアを得ることができる。
特定の予測値が計算された理由を説明するために、個々のデータポイントに対して局所的な説明が生成される。
論文 参考訳(メタデータ) (2022-07-15T13:18:48Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z) - Believe The HiPe: Hierarchical Perturbation for Fast and Robust
Explanation of Black Box Models [16.96589831045415]
サリエンシーマッピングは容易に解釈できる視覚的帰属法である。
モデル予測を説明するための非常に高速で完全にモデルに依存しない手法である階層摂動を提案する。
標準のベンチマークとデータセットを使用して、サリエンシーマップが既存のブラックボックスメソッドで生成されたものよりも競争力のある品質または優れた品質であることを示します。
論文 参考訳(メタデータ) (2021-02-22T18:22:56Z) - Stealing Black-Box Functionality Using The Deep Neural Tree Architecture [52.676349798710106]
本稿では,Deep Neural Trees (DNT) という機械学習(ML)アーキテクチャを導入することで,ブラックボックスモデルの機能のクローン化に向けて大きな一歩を踏み出した。
能動的学習アルゴリズムを用いてDNTを訓練し,より高速でよりサンプル効率の高いトレーニングを実現することを提案する。
トレーニングされたDNTモジュールは、攻撃されたモジュールとして機能するだけでなく、提案したアーキテクチャのツリーのような性質のため、クローンモデルにある程度の説明性を提供する。
論文 参考訳(メタデータ) (2020-02-23T09:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。