論文の概要: ContextBuddy: AI-Enhanced Contextual Insights for Security Alert Investigation (Applied to Intrusion Detection)
- arxiv url: http://arxiv.org/abs/2506.09365v1
- Date: Wed, 11 Jun 2025 03:24:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:02.295987
- Title: ContextBuddy: AI-Enhanced Contextual Insights for Security Alert Investigation (Applied to Intrusion Detection)
- Title(参考訳): ContextBuddy: セキュリティアラート調査のためのAI強化コンテキストインサイト(侵入検出への適用)
- Authors: Ronal Singh, Mohan Baruwal Chhetri, Surya Nepal, Cecile Paris,
- Abstract要約: 我々は、アナリストの以前の調査から学ぶアシスタントAIであるContextBuddyを紹介する。
コンテクスト選択を逐次決定問題として定式化する。
ContextBuddyは、強化学習アナリストのシミュレートを支援し、分類精度を向上した。
- 参考スコア(独自算出の注目度): 14.615505839197855
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Modern Security Operations Centres (SOCs) integrate diverse tools, such as SIEM, IDS, and XDR systems, offering rich contextual data, including alert enrichments, flow features, and similar case histories. Yet, analysts must still manually determine which of these contextual cues are most relevant when validating specific alerts. We introduce ContextBuddy, an AI assistant that learns from analysts' prior investigations to help them identify the most relevant context for new alerts. Rather than providing enrichments, ContextBuddy models how analysts have previously selected context and suggests tailored cues based on the characteristics of each alert. We formulate context selection as a sequential decision-making problem and apply imitation learning (IL) to capture analysts' strategies, evaluating multiple IL approaches. Through staged evaluation, we validate ContextBuddy using two intrusion detection datasets (HIKARI-2021, UNSW-NB15). In simulation-based experiments, ContextBuddy helped simulated reinforcement learning analysts improve classification accuracy (p < 0.001) (increasing F1 by 2.5% for HIKARI and 9% for UNSW), reducing false negatives (1.5% for HIKARI and 10% for UNSW), and keeping false positives below 1%. Decision confidence among agents also improved by 2-3% (p < 0.001). In a within-subject user study (N=13; power = 0.8), non-experts using ContextBuddy improved classification accuracy by 21.1% (p = 0.008) and reduced alert validation time by 24% (p = 0.01). These results demonstrate that by learning context-selection patterns from analysts, ContextBuddy can yield notable improvements in investigation effectiveness and efficiency.
- Abstract(参考訳): 現代のセキュリティ運用センター(SOC)は、SIEM、IDS、XDRシステムなどの多様なツールを統合し、アラートの強化、フロー機能、同様のケース履歴を含む、リッチなコンテキストデータを提供する。
しかし、アナリストは、特定のアラートを検証する際に、これらのコンテキスト的手がかりのうちどれが最も適切であるかを手作業で決める必要があります。
我々はContextBuddyを紹介した。これはAIアシスタントで、アナリストの以前の調査から学び、新しいアラートの最も関連性の高いコンテキストを特定するのに役立つ。
リッチメントを提供する代わりに、ContextBuddyは、アナリストが以前コンテキストを選択した方法をモデル化し、各アラートの特性に基づいて調整されたキューを提案する。
コンテクスト選択を逐次決定問題として定式化し、分析者の戦略を捉えるために模倣学習(IL)を適用し、複数のILアプローチを評価する。
2つの侵入検出データセット(HIKARI-2021, UNSW-NB15)を用いてContextBuddyを検証する。
シミュレーションベースの実験では、ContextBuddyは強化学習アナリストによる分類精度の改善(HIKARIが2.5%、UNSWが9%)、偽陰性(HIKARIが1.5%、UNSWが10%)、偽陽性(偽陽性)を1%以下に抑えるのに役立った。
また, エージェント間の信頼度も2-3%向上した(p < 0.001)。
N=13; power = 0.8)で、ContextBuddyを使った非専門家は、分類精度を21.1%(p = 0.008)改善し、警告検証時間を24%(p = 0.01)短縮した。
これらの結果は、アナリストからコンテキスト選択パターンを学習することにより、ContextBuddyが調査の有効性と効率において顕著な改善をもたらすことを示した。
関連論文リスト
- Towards Trustworthy Keylogger detection: A Comprehensive Analysis of Ensemble Techniques and Feature Selections through Explainable AI [0.0]
キーロガー検出は、タイピングと文字表示の遅延のような異常なシステム動作の監視を含む。
本研究では,従来の機械学習モデルを用いたキーロガー検出の包括的解析を行う。
論文 参考訳(メタデータ) (2025-05-22T01:04:13Z) - Phrasing for UX: Enhancing Information Engagement through Computational Linguistics and Creative Analytics [0.0]
本研究では,デジタルプラットフォーム上でのテキスト特徴と情報エンゲージメント(IE)の関係について検討する。
計算言語学と分析がユーザインタラクションに与える影響を強調します。
READモデルは、代表性、使いやすさ、影響、分散といった重要な予測要素を定量化するために導入された。
論文 参考訳(メタデータ) (2024-08-23T00:33:47Z) - ZZU-NLP at SIGHAN-2024 dimABSA Task: Aspect-Based Sentiment Analysis with Coarse-to-Fine In-context Learning [0.36332383102551763]
DimABSAタスクはレストランレビューに微妙な感情強度予測を必要とする。
そこで本稿では,DimABSAタスクに対するBaichuan2-7Bモデルに基づく大まかなインコンテクスト学習手法を提案する。
論文 参考訳(メタデータ) (2024-07-22T02:54:46Z) - Improving Bias Correction Standards by Quantifying its Effects on Treatment Outcomes [54.18828236350544]
Propensity score matching (PSM) は、分析のために同等の人口を選択することで選択バイアスに対処する。
異なるマッチング手法は、すべての検証基準を満たす場合でも、同じタスクに対する平均処理効果(ATE)を著しく異なるものにすることができる。
この問題に対処するため,新しい指標A2Aを導入し,有効試合数を削減した。
論文 参考訳(メタデータ) (2024-07-20T12:42:24Z) - Downstream-Pretext Domain Knowledge Traceback for Active Learning [138.02530777915362]
本稿では、下流知識と事前学習指導のデータ相互作用をトレースするダウンストリーム・プレテキスト・ドメイン知識トレース(DOKT)手法を提案する。
DOKTは、トレースバックの多様性指標とドメインベースの不確実性推定器から構成される。
10のデータセットで行った実験は、我々のモデルが他の最先端の手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-20T01:34:13Z) - Multi-Modal Prompt Learning on Blind Image Quality Assessment [65.0676908930946]
画像品質評価(IQA)モデルは意味情報から大きな恩恵を受け、異なる種類のオブジェクトを明瞭に扱うことができる。
十分な注釈付きデータが不足している従来の手法では、セマンティックな認識を得るために、CLIPイメージテキスト事前学習モデルをバックボーンとして使用していた。
近年のアプローチでは、このミスマッチに即時技術を使って対処する試みがあるが、これらの解決策には欠点がある。
本稿では、IQAのための革新的なマルチモーダルプロンプトベースの手法を提案する。
論文 参考訳(メタデータ) (2024-04-23T11:45:32Z) - FineWAVE: Fine-Grained Warning Verification of Bugs for Automated Static Analysis Tools [18.927121513404924]
ASAT(Automated Static Analysis Tools)は、バグ検出を支援するために、時間とともに進化してきた。
これまでの研究は、報告された警告を検証するための学習ベースの方法を探究してきた。
我々は,バグに敏感な警告をきめ細かい粒度で検証する学習ベースアプローチであるFineWAVEを提案する。
論文 参考訳(メタデータ) (2024-03-24T06:21:35Z) - Conservative Prediction via Data-Driven Confidence Minimization [70.93946578046003]
機械学習の安全性クリティカルな応用においては、モデルが保守的であることが望ましいことが多い。
本研究では,不確実性データセットに対する信頼性を最小化するデータ駆動信頼性最小化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:05:36Z) - Enabling Classifiers to Make Judgements Explicitly Aligned with Human
Values [73.82043713141142]
性差別/人種差別の検出や毒性検出などの多くのNLP分類タスクは、人間の値に基づいている。
本稿では,コマンド内で明示的に記述された人間の値に基づいて予測を行う,値整合型分類のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-14T09:10:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。