論文の概要: A Unified Framework for Human AI Collaboration in Security Operations Centers with Trusted Autonomy
- arxiv url: http://arxiv.org/abs/2505.23397v2
- Date: Sun, 01 Jun 2025 03:54:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-03 13:48:30.057369
- Title: A Unified Framework for Human AI Collaboration in Security Operations Centers with Trusted Autonomy
- Title(参考訳): 信頼された自律性を持つセキュリティ運用センターにおけるヒューマンAIコラボレーションのための統一フレームワーク
- Authors: Ahmad Mohsin, Helge Janicke, Ahmed Ibrahim, Iqbal H. Sarker, Seyit Camtepe,
- Abstract要約: 本稿では,セキュリティ・オペレーション・センター(SOC)におけるヒューマン・AI連携のための構造化された枠組みについて述べる。
我々は,手動から完全自律までの5段階のAI自律性に基づく,新しい自律型フレームワークを提案する。
これにより、監視、保護、脅威検出、警告トリアージ、インシデント応答を含む、コアSOC関数間の適応的で説明可能なAI統合が可能になる。
- 参考スコア(独自算出の注目度): 10.85035493967822
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This article presents a structured framework for Human-AI collaboration in Security Operations Centers (SOCs), integrating AI autonomy, trust calibration, and Human-in-the-loop decision making. Existing frameworks in SOCs often focus narrowly on automation, lacking systematic structures to manage human oversight, trust calibration, and scalable autonomy with AI. Many assume static or binary autonomy settings, failing to account for the varied complexity, criticality, and risk across SOC tasks considering Humans and AI collaboration. To address these limitations, we propose a novel autonomy tiered framework grounded in five levels of AI autonomy from manual to fully autonomous, mapped to Human-in-the-Loop (HITL) roles and task-specific trust thresholds. This enables adaptive and explainable AI integration across core SOC functions, including monitoring, protection, threat detection, alert triage, and incident response. The proposed framework differentiates itself from previous research by creating formal connections between autonomy, trust, and HITL across various SOC levels, which allows for adaptive task distribution according to operational complexity and associated risks. The framework is exemplified through a simulated cyber range that features the cybersecurity AI-Avatar, a fine-tuned LLM-based SOC assistant. The AI-Avatar case study illustrates human-AI collaboration for SOC tasks, reducing alert fatigue, enhancing response coordination, and strategically calibrating trust. This research systematically presents both the theoretical and practical aspects and feasibility of designing next-generation cognitive SOCs that leverage AI not to replace but to enhance human decision-making.
- Abstract(参考訳): 本稿では,セキュリティ運用センター(SOCs)におけるヒューマン-AIコラボレーションのための構造化されたフレームワークについて述べる。
SOCの既存のフレームワークは、自動化に限定し、人間の監視を管理するための体系的な構造、信頼性の調整、AIによるスケーラブルな自律性を欠いていることが多い。
多くの人が静的あるいはバイナリな自律性の設定を前提としており、人間とAIのコラボレーションを考慮したSOCタスクの複雑さ、臨界性、リスクを考慮に入れていない。
これらの制限に対処するため、手動から完全自律までの5段階のAI自律性に基づく新しい自律型フレームワークを提案し、HITL(Human-in-the-Loop)の役割とタスク固有の信頼しきい値にマップする。
これにより、監視、保護、脅威検出、警告トリアージ、インシデント応答を含む、コアSOC関数間の適応的で説明可能なAI統合が可能になる。
提案手法は, 自律性, 信頼, HITLの相互関係を様々なSOCレベルにわたって形成し, 作業の複雑さや関連するリスクに応じてタスクの適応的分散を可能にすることによって, 従来の研究と差別化を図っている。
このフレームワークは、LLMベースのSOCアシスタントであるサイバーセキュリティAI-Avatarを特徴とする、シミュレートされたサイバーレンジを通じて実証されている。
AI-Avatarのケーススタディでは、SOCタスクに対する人間とAIのコラボレーション、警告疲労の低減、応答調整の強化、信頼の戦略的調整が説明されている。
この研究は、AIを代替するのではなく、人間の意思決定を強化する次世代認知SOCを設計するための理論的・実践的な側面と実現可能性の両方を体系的に提示する。
関連論文リスト
- A Task-Driven Human-AI Collaboration: When to Automate, When to Collaborate, When to Challenge [16.734679201317896]
性能を改善しつつ、適切な人間とAIの統合が有意義なエージェンシーを維持するかを示す。
この枠組みは、実用的で道徳的に健全な人間とAIのコラボレーションの基礎を築いた。
論文 参考訳(メタデータ) (2025-05-23T23:19:15Z) - Internet of Agents: Fundamentals, Applications, and Challenges [66.44234034282421]
異種エージェント間のシームレスな相互接続、動的発見、協調的なオーケストレーションを可能にする基盤となるフレームワークとして、エージェントのインターネット(IoA)を紹介した。
我々は,機能通知と発見,適応通信プロトコル,動的タスクマッチング,コンセンサスとコンフリクト解決機構,インセンティブモデルなど,IoAの重要な運用イネーラを分析した。
論文 参考訳(メタデータ) (2025-05-12T02:04:37Z) - Towards AI-Driven Human-Machine Co-Teaming for Adaptive and Agile Cyber Security Operation Centers [3.959615037146599]
セキュリティオペレーションセンター(SOC)は、大量のアラート、熟練したアナリストの不足、不十分な統合ツールによって、サイバーセキュリティの脅威を管理する上で、ますます難しい課題に直面している。
我々は、脅威インテリジェンス、警告トリアージ、インシデント応答を強化するために、大規模言語モデル(LLM)を活用するAI駆動のヒューマンマシン共同チームパラダイムを導入する。
我々は,LSMをベースとしたAIエージェントが,SOC操作に埋め込まれた暗黙の知識を人間アナリストから学ぶというビジョンを提示する。
論文 参考訳(メタデータ) (2025-05-09T19:38:26Z) - Do LLMs trust AI regulation? Emerging behaviour of game-theoretic LLM agents [61.132523071109354]
本稿では、異なる規制シナリオ下での戦略選択をモデル化する、AI開発者、規制当局、ユーザ間の相互作用について検討する。
我々の研究は、純粋なゲーム理論エージェントよりも「悲観的」な姿勢を採用する傾向にある戦略的AIエージェントの出現する振る舞いを特定する。
論文 参考訳(メタデータ) (2025-04-11T15:41:21Z) - Human-AI Collaboration in Cloud Security: Cognitive Hierarchy-Driven Deep Reinforcement Learning [7.370441344885935]
セキュリティ運用センター(SOC)は、高度な永続脅威(APT)に対抗するために、AI駆動の適応防御機構を採用しなければならない。
本稿では、SOCアナリストとAI駆動のAPTボット間の対話的意思決定をモデル化する、認知階層理論駆動型深層Q-ネットワーク(CHT-DQN)フレームワークを提案する。
我々のフレームワークは攻撃グラフに基づく強化学習を用いて適応的なSOC防御を強化する。
論文 参考訳(メタデータ) (2025-02-22T03:19:21Z) - Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Watch-And-Help: A Challenge for Social Perception and Human-AI
Collaboration [116.28433607265573]
我々は、AIエージェントでソーシャルインテリジェンスをテストするための課題であるWatch-And-Help(WAH)を紹介する。
WAHでは、AIエージェントは、人間のようなエージェントが複雑な家庭用タスクを効率的に実行するのを助ける必要がある。
マルチエージェントの家庭環境であるVirtualHome-Socialを構築し、計画と学習ベースのベースラインを含むベンチマークを提供する。
論文 参考訳(メタデータ) (2020-10-19T21:48:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。