論文の概要: Inherently Interpretable and Uncertainty-Aware Models for Online Learning in Cyber-Security Problems
- arxiv url: http://arxiv.org/abs/2411.09393v1
- Date: Thu, 14 Nov 2024 12:11:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-15 15:24:02.328445
- Title: Inherently Interpretable and Uncertainty-Aware Models for Online Learning in Cyber-Security Problems
- Title(参考訳): サイバーセキュリティ問題におけるオンライン学習の因果的解釈と不確実性認識モデル
- Authors: Benjamin Kolicic, Alberto Caron, Chris Hicks, Vasilios Mavroudis,
- Abstract要約: サイバーセキュリティにおけるオンライン教師あり学習問題に対する新しいパイプラインを提案する。
当社のアプローチは、予測パフォーマンスと透明性のバランスをとることを目的としています。
この研究は、解釈可能なAIの分野の成長に寄与する。
- 参考スコア(独自算出の注目度): 0.22499166814992438
- License:
- Abstract: In this paper, we address the critical need for interpretable and uncertainty-aware machine learning models in the context of online learning for high-risk industries, particularly cyber-security. While deep learning and other complex models have demonstrated impressive predictive capabilities, their opacity and lack of uncertainty quantification present significant questions about their trustworthiness. We propose a novel pipeline for online supervised learning problems in cyber-security, that harnesses the inherent interpretability and uncertainty awareness of Additive Gaussian Processes (AGPs) models. Our approach aims to balance predictive performance with transparency while improving the scalability of AGPs, which represents their main drawback, potentially enabling security analysts to better validate threat detection, troubleshoot and reduce false positives, and generally make trustworthy, informed decisions. This work contributes to the growing field of interpretable AI by proposing a class of models that can be significantly beneficial for high-stake decision problems such as the ones typical of the cyber-security domain. The source code is available.
- Abstract(参考訳): 本稿では、リスクの高い産業、特にサイバーセキュリティにおけるオンライン学習の文脈において、解釈可能かつ不確実性を考慮した機械学習モデルの必要性に対処する。
ディープラーニングやその他の複雑なモデルは印象的な予測能力を示してきたが、不透明さと不確実な定量化の欠如は、信頼性に関する重要な疑問を呈している。
本稿では,AGP(Additive Gaussian Processes)モデルに固有の解釈可能性と不確実性を活かした,サイバーセキュリティにおけるオンライン教師あり学習問題のための新しいパイプラインを提案する。
我々のアプローチは、予測性能と透明性のバランスを保ちながら、AGPのスケーラビリティを向上することを目的としています。
この研究は、サイバーセキュリティドメインの典型的なモデルのような高リスクな決定問題に多大な利益をもたらすようなモデルのクラスを提案することによって、解釈可能なAIの分野の成長に寄与する。
ソースコードは公開されている。
関連論文リスト
- NeuralSentinel: Safeguarding Neural Network Reliability and
Trustworthiness [0.0]
我々は,AIモデルの信頼性と信頼性を検証するツールであるNeuralSentinel(NS)を提案する。
NSは、モデル決定を理解することによって、専門家以外のスタッフがこの新しいシステムに対する信頼を高めるのに役立つ。
このツールはハッカソンイベントにデプロイされ、皮膚がん画像検出器の信頼性を評価するために使用された。
論文 参考訳(メタデータ) (2024-02-12T09:24:34Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Building Safe and Reliable AI systems for Safety Critical Tasks with
Vision-Language Processing [1.2183405753834557]
現在のAIアルゴリズムでは、障害検出の一般的な原因を特定できない。
予測の質を定量化するためには、追加のテクニックが必要である。
この論文は、分類、画像キャプション、視覚質問応答といったタスクのための視覚言語データ処理に焦点を当てる。
論文 参考訳(メタデータ) (2023-08-06T18:05:59Z) - A Survey on Explainable Artificial Intelligence for Cybersecurity [14.648580959079787]
説明可能な人工知能(XAI)は、決定と行動に対して明確かつ解釈可能な説明を提供する機械学習モデルを作成することを目的としている。
ネットワークサイバーセキュリティの分野では、XAIは、サイバー脅威の振る舞いをよりよく理解することで、ネットワークセキュリティへのアプローチ方法に革命をもたらす可能性がある。
論文 参考訳(メタデータ) (2023-03-07T22:54:18Z) - A robust statistical framework for cyber-vulnerability prioritisation under partial information in threat intelligence [0.0]
この研究は、サイバー脆弱性に関する不確実性の下で、定量的および質的な推論のための頑健な統計的枠組みを導入する。
我々は,既存の脆弱性の集合全体の部分的知識の下で,ばらつきのランクに適合する新しい精度尺度を同定する。
本稿では,サイバー脆弱性に関する部分的知識が,運用シナリオにおける脅威インテリジェンスと意思決定に与える影響について論じる。
論文 参考訳(メタデータ) (2023-02-16T15:05:43Z) - Holistic Adversarial Robustness of Deep Learning Models [91.34155889052786]
敵対的堅牢性は、安全性と信頼性を確保するために、機械学習モデルの最悪のケースパフォーマンスを研究する。
本稿では,深層学習モデルの対角的ロバスト性に関する研究課題の概要と研究手法の基礎原則について概説する。
論文 参考訳(メタデータ) (2022-02-15T05:30:27Z) - Multi Agent System for Machine Learning Under Uncertainty in Cyber
Physical Manufacturing System [78.60415450507706]
近年の予測機械学習の進歩は、製造における様々なユースケースに応用されている。
ほとんどの研究は、それに関連する不確実性に対処することなく予測精度を最大化することに焦点を当てた。
本稿では,機械学習における不確実性の原因を特定し,不確実性下での機械学習システムの成功基準を確立する。
論文 参考訳(メタデータ) (2021-07-28T10:28:05Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - A Safety Framework for Critical Systems Utilising Deep Neural Networks [13.763070043077633]
本稿では,ディープニューラルネットワークを利用したクリティカルシステムのための新しい安全引数フレームワークを提案する。
このアプローチは、例えば、ある要求をパスする将来の信頼性、あるいは必要な信頼性レベルへの信頼など、様々な形の予測を可能にする。
運用データを用いたベイズ解析と,近年のディープラーニングの検証と検証技術によって支援されている。
論文 参考訳(メタデータ) (2020-03-07T23:35:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。