論文の概要: Inherently Interpretable and Uncertainty-Aware Models for Online Learning in Cyber-Security Problems
- arxiv url: http://arxiv.org/abs/2411.09393v1
- Date: Thu, 14 Nov 2024 12:11:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-15 15:24:02.328445
- Title: Inherently Interpretable and Uncertainty-Aware Models for Online Learning in Cyber-Security Problems
- Title(参考訳): サイバーセキュリティ問題におけるオンライン学習の因果的解釈と不確実性認識モデル
- Authors: Benjamin Kolicic, Alberto Caron, Chris Hicks, Vasilios Mavroudis,
- Abstract要約: サイバーセキュリティにおけるオンライン教師あり学習問題に対する新しいパイプラインを提案する。
当社のアプローチは、予測パフォーマンスと透明性のバランスをとることを目的としています。
この研究は、解釈可能なAIの分野の成長に寄与する。
- 参考スコア(独自算出の注目度): 0.22499166814992438
- License:
- Abstract: In this paper, we address the critical need for interpretable and uncertainty-aware machine learning models in the context of online learning for high-risk industries, particularly cyber-security. While deep learning and other complex models have demonstrated impressive predictive capabilities, their opacity and lack of uncertainty quantification present significant questions about their trustworthiness. We propose a novel pipeline for online supervised learning problems in cyber-security, that harnesses the inherent interpretability and uncertainty awareness of Additive Gaussian Processes (AGPs) models. Our approach aims to balance predictive performance with transparency while improving the scalability of AGPs, which represents their main drawback, potentially enabling security analysts to better validate threat detection, troubleshoot and reduce false positives, and generally make trustworthy, informed decisions. This work contributes to the growing field of interpretable AI by proposing a class of models that can be significantly beneficial for high-stake decision problems such as the ones typical of the cyber-security domain. The source code is available.
- Abstract(参考訳): 本稿では、リスクの高い産業、特にサイバーセキュリティにおけるオンライン学習の文脈において、解釈可能かつ不確実性を考慮した機械学習モデルの必要性に対処する。
ディープラーニングやその他の複雑なモデルは印象的な予測能力を示してきたが、不透明さと不確実な定量化の欠如は、信頼性に関する重要な疑問を呈している。
本稿では,AGP(Additive Gaussian Processes)モデルに固有の解釈可能性と不確実性を活かした,サイバーセキュリティにおけるオンライン教師あり学習問題のための新しいパイプラインを提案する。
我々のアプローチは、予測性能と透明性のバランスを保ちながら、AGPのスケーラビリティを向上することを目的としています。
この研究は、サイバーセキュリティドメインの典型的なモデルのような高リスクな決定問題に多大な利益をもたらすようなモデルのクラスを提案することによって、解釈可能なAIの分野の成長に寄与する。
ソースコードは公開されている。
関連論文リスト
- Open Problems in Machine Unlearning for AI Safety [61.43515658834902]
特定の種類の知識を選択的に忘れたり、抑圧したりするマシンアンラーニングは、プライバシとデータ削除タスクの約束を示している。
本稿では,アンラーニングがAI安全性の包括的ソリューションとして機能することを防止するための重要な制約を特定する。
論文 参考訳(メタデータ) (2025-01-09T03:59:10Z) - Applications of Positive Unlabeled (PU) and Negative Unlabeled (NU) Learning in Cybersecurity [0.0]
本稿では,サイバーセキュリティ分野におけるPositive Unlabeled (PU) Learning and Negative Unlabeled (NU) Learningの比較的過小評価された応用について検討する。
本稿は、侵入検知、脆弱性管理、マルウェア検出、脅威知能など、サイバーセキュリティの重要な領域を特定し、PU/NU学習は大幅な改善をもたらす。
我々は、サイバーセキュリティにおけるPU/NU学習の統合を推進し、新興のサイバー脅威を検出し、管理し、軽減するソリューションを提供する将来の方向性を提案する。
論文 参考訳(メタデータ) (2024-12-09T04:55:10Z) - ChatNVD: Advancing Cybersecurity Vulnerability Assessment with Large Language Models [0.46873264197900916]
本稿では,Large Language Models (LLMs) のソフトウェア脆弱性評価への応用について検討する。
我々は,OpenAIによるGPT-4o mini,MetaによるLlama 3,GoogleによるGemini 1.5 Proの3つの著名なLCMを利用して,ChatNVDの3つの変種を開発した。
それらの有効性を評価するために,一般的なセキュリティ脆弱性質問を含む包括的アンケートを用いて,これらのモデルの比較分析を行った。
論文 参考訳(メタデータ) (2024-12-06T03:45:49Z) - Artificial intelligence and cybersecurity in banking sector: opportunities and risks [0.0]
機械学習(ML)により、システムは巨大なデータセットに適応し、学習することができる。
この研究は、悪意のあるユーザーが使用できるAIツールのデュアルユース性を強調している。
この論文は、セキュリティ、信頼、レジリエンス、堅牢性といった重要な特徴を持つ機械学習モデルを開発することの重要性を強調している。
論文 参考訳(メタデータ) (2024-11-28T22:09:55Z) - New Emerged Security and Privacy of Pre-trained Model: a Survey and Outlook [54.24701201956833]
セキュリティとプライバシーの問題は、事前訓練されたモデルに対するユーザーの信頼を損なう。
現在の文献は、事前訓練されたモデルに対する攻撃と防御の明確な分類を欠いている。
この分類法は、攻撃と防御をNo-Change、Input-Change、Model-Changeアプローチに分類する。
論文 参考訳(メタデータ) (2024-11-12T10:15:33Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - A robust statistical framework for cyber-vulnerability prioritisation under partial information in threat intelligence [0.0]
この研究は、サイバー脆弱性に関する不確実性の下で、定量的および質的な推論のための頑健な統計的枠組みを導入する。
我々は,既存の脆弱性の集合全体の部分的知識の下で,ばらつきのランクに適合する新しい精度尺度を同定する。
本稿では,サイバー脆弱性に関する部分的知識が,運用シナリオにおける脅威インテリジェンスと意思決定に与える影響について論じる。
論文 参考訳(メタデータ) (2023-02-16T15:05:43Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - A Safety Framework for Critical Systems Utilising Deep Neural Networks [13.763070043077633]
本稿では,ディープニューラルネットワークを利用したクリティカルシステムのための新しい安全引数フレームワークを提案する。
このアプローチは、例えば、ある要求をパスする将来の信頼性、あるいは必要な信頼性レベルへの信頼など、様々な形の予測を可能にする。
運用データを用いたベイズ解析と,近年のディープラーニングの検証と検証技術によって支援されている。
論文 参考訳(メタデータ) (2020-03-07T23:35:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。