論文の概要: Adaptive alert prioritisation in security operations centres via learning to defer with human feedback
- arxiv url: http://arxiv.org/abs/2506.18462v1
- Date: Mon, 23 Jun 2025 09:59:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.926785
- Title: Adaptive alert prioritisation in security operations centres via learning to defer with human feedback
- Title(参考訳): ヒューマンフィードバックの遅延を学習するセキュリティ運用センターにおける適応的アラート優先順位付け
- Authors: Fatemeh Jalalvand, Mohan Baruwal Chhetri, Surya Nepal, Cécile Paris,
- Abstract要約: L2DHF(Learning to Defer with Human Feedback)を紹介する。
L2DHFはDeep Reinforcement Learning from Human Feedbackを使って遅延決定を最適化する。
UNSW-NB15ではAPの精度が13-16%向上し、CICIDS 2017では60-67%向上した。
- 参考スコア(独自算出の注目度): 16.91788609965446
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Alert prioritisation (AP) is crucial for security operations centres (SOCs) to manage the overwhelming volume of alerts and ensure timely detection and response to genuine threats, while minimising alert fatigue. Although predictive AI can process large alert volumes and identify known patterns, it struggles with novel and evolving scenarios that demand contextual understanding and nuanced judgement. A promising solution is Human-AI teaming (HAT), which combines human expertise with AI's computational capabilities. Learning to Defer (L2D) operationalises HAT by enabling AI to "defer" uncertain or unfamiliar cases to human experts. However, traditional L2D models rely on static deferral policies that do not evolve with experience, limiting their ability to learn from human feedback and adapt over time. To overcome this, we introduce Learning to Defer with Human Feedback (L2DHF), an adaptive deferral framework that leverages Deep Reinforcement Learning from Human Feedback (DRLHF) to optimise deferral decisions. By dynamically incorporating human feedback, L2DHF continuously improves AP accuracy and reduces unnecessary deferrals, enhancing SOC effectiveness and easing analyst workload. Experiments on two widely used benchmark datasets, UNSW-NB15 and CICIDS2017, demonstrate that L2DHF significantly outperforms baseline models. Notably, it achieves 13-16% higher AP accuracy for critical alerts on UNSW-NB15 and 60-67% on CICIDS2017. It also reduces misprioritisations, for example, by 98% for high-category alerts on CICIDS2017. Moreover, L2DHF decreases deferrals, for example, by 37% on UNSW-NB15, directly reducing analyst workload. These gains are achieved with efficient execution, underscoring L2DHF's practicality for real-world SOC deployment.
- Abstract(参考訳): アラート優先順位付け(AP)は、セキュリティ運用センター(SOC)にとって、過度のアラートを管理し、真の脅威に対するタイムリーな検出と応答を確保すると同時に、アラートの疲労を最小限に抑えるために不可欠である。
予測AIは、大きなアラートボリュームを処理し、既知のパターンを特定することができるが、文脈的理解とニュアンスドな判断を必要とする、新しく進化したシナリオに苦慮している。
有望な解決策は、人間の専門知識とAIの計算能力を組み合わせたHAT(Human-AI Teaming)である。
Learning to Defer (L2D)は、AIが不確実または不慣れなケースを人間の専門家に"延期"することで、HATを運用する。
しかし、従来のL2Dモデルは経験によって進化しない静的な遅延ポリシーに依存しており、人間のフィードバックから学び、時間とともに適応する能力を制限する。
そこで我々は,人間のフィードバックによる深層強化学習(DRLHF)を活用する適応型推論フレームワークであるL2DHF(Learning to Defer with Human Feedback)を導入する。
人間のフィードバックを動的に取り入れることで、L2DHFはAPの精度を継続的に改善し、不要な遅延を低減し、SOCの有効性を高め、アナリストの作業量を減らす。
広く使用されている2つのベンチマークデータセットであるUNSW-NB15とCICIDS2017の実験は、L2DHFがベースラインモデルを大幅に上回ることを示した。
特に、UNSW-NB15における臨界警報のAP精度は13-16%、CICIDS2017では60-67%向上している。
また、CICIDS2017のハイカテゴリアラートでは、ミスプライオリティを98%削減する。
さらに、L2DHFは、例えばUNSW-NB15において、遅延を37%減少させ、アナリストのワークロードを直接減少させる。
これらのゲインは効率的な実行によって達成され、L2DHFの現実的なSOC展開の実践性を裏付けている。
関連論文リスト
- Evaluating explainable AI for deep learning-based network intrusion detection system alert classification [0.7864304771129751]
ネットワーク侵入検知システム(NIDS)は、サイバー攻撃やその他の不要な活動のネットワークを監視する。
NIDSソリューションは、しばしば毎日圧倒的な数のアラートを発生させるため、アナリストが優先度の高い脅威を優先順位付けすることは困難である。
本研究は、信頼と解釈性を改善するために、NIDS警告分類における説明可能な人工知能(XAI)の重要性を強調した。
論文 参考訳(メタデータ) (2025-06-09T15:53:30Z) - Bi-Factorial Preference Optimization: Balancing Safety-Helpfulness in Language Models [94.39278422567955]
人間の嗜好を微調整した大型言語モデル(LLM)は、その能力向上に成功している。
しかし、微調整中のLLMの安全性確保は依然として重要な懸念事項である。
本稿では,BFPO(Bi-Factorial Preference Optimization)と呼ばれる教師あり学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-27T17:31:21Z) - RLHF Deciphered: A Critical Analysis of Reinforcement Learning from Human Feedback for LLMs [49.386699863989335]
大きな言語モデル(LLM)を訓練し、人間の効果的なアシスタントとして機能させるには、慎重に検討する必要がある。
有望なアプローチとして、人間からのフィードバック(RLHF)からの強化学習がある。
本稿では、強化学習原理のレンズを通してRLHFを分析し、その基礎を理解する。
論文 参考訳(メタデータ) (2024-04-12T15:54:15Z) - Safe RLHF: Safe Reinforcement Learning from Human Feedback [16.69413517494355]
本稿では,人的価値アライメントのための新しいアルゴリズムである,人的フィードバックからの安全強化学習(Safe RLHF)を提案する。
安全RLHFは、役に立つことと無害性に関する人間の嗜好を明示的に分離し、クラウドワーカーの緊張に対する混乱を効果的に回避する。
モデル性能を高めながら有害な応答を緩和する優れた能力を示す。
論文 参考訳(メタデータ) (2023-10-19T14:22:03Z) - Primitive Skill-based Robot Learning from Human Evaluative Feedback [28.046559859978597]
強化学習アルゴリズムは、現実世界環境における長期ロボット操作タスクを扱う際に、課題に直面している。
本稿では,人間フィードバックからの強化学習(RLHF)と原始的スキルベース強化学習の2つのアプローチを活用する新しいフレームワークSEEDを提案する。
以上の結果から,SEEDはサンプル効率と安全性において最先端のRLアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2023-07-28T20:48:30Z) - Persistent Reinforcement Learning via Subgoal Curricula [114.83989499740193]
VaPRL(Value-accelerated Persistent Reinforcement Learning)は、初期状態のカリキュラムを生成する。
VaPRLは、エピソード強化学習と比較して、3桁の精度で必要な介入を減らす。
論文 参考訳(メタデータ) (2021-07-27T16:39:45Z) - Robust Deep Reinforcement Learning through Adversarial Loss [74.20501663956604]
近年の研究では、深層強化学習剤は、エージェントの入力に対する小さな逆方向の摂動に弱いことが示されている。
敵攻撃に対する堅牢性を向上した強化学習エージェントを訓練するための原則的フレームワークであるRADIAL-RLを提案する。
論文 参考訳(メタデータ) (2020-08-05T07:49:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。