論文の概要: A Unified Framework for Human AI Collaboration in Security Operations Centers with Trusted Autonomy
- arxiv url: http://arxiv.org/abs/2505.23397v2
- Date: Sun, 01 Jun 2025 03:54:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-03 13:48:30.057369
- Title: A Unified Framework for Human AI Collaboration in Security Operations Centers with Trusted Autonomy
- Title(参考訳): 信頼された自律性を持つセキュリティ運用センターにおけるヒューマンAIコラボレーションのための統一フレームワーク
- Authors: Ahmad Mohsin, Helge Janicke, Ahmed Ibrahim, Iqbal H. Sarker, Seyit Camtepe,
- Abstract要約: 本稿では,セキュリティ・オペレーション・センター(SOC)におけるヒューマン・AI連携のための構造化された枠組みについて述べる。
我々は,手動から完全自律までの5段階のAI自律性に基づく,新しい自律型フレームワークを提案する。
これにより、監視、保護、脅威検出、警告トリアージ、インシデント応答を含む、コアSOC関数間の適応的で説明可能なAI統合が可能になる。
- 参考スコア(独自算出の注目度): 10.85035493967822
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This article presents a structured framework for Human-AI collaboration in Security Operations Centers (SOCs), integrating AI autonomy, trust calibration, and Human-in-the-loop decision making. Existing frameworks in SOCs often focus narrowly on automation, lacking systematic structures to manage human oversight, trust calibration, and scalable autonomy with AI. Many assume static or binary autonomy settings, failing to account for the varied complexity, criticality, and risk across SOC tasks considering Humans and AI collaboration. To address these limitations, we propose a novel autonomy tiered framework grounded in five levels of AI autonomy from manual to fully autonomous, mapped to Human-in-the-Loop (HITL) roles and task-specific trust thresholds. This enables adaptive and explainable AI integration across core SOC functions, including monitoring, protection, threat detection, alert triage, and incident response. The proposed framework differentiates itself from previous research by creating formal connections between autonomy, trust, and HITL across various SOC levels, which allows for adaptive task distribution according to operational complexity and associated risks. The framework is exemplified through a simulated cyber range that features the cybersecurity AI-Avatar, a fine-tuned LLM-based SOC assistant. The AI-Avatar case study illustrates human-AI collaboration for SOC tasks, reducing alert fatigue, enhancing response coordination, and strategically calibrating trust. This research systematically presents both the theoretical and practical aspects and feasibility of designing next-generation cognitive SOCs that leverage AI not to replace but to enhance human decision-making.
- Abstract(参考訳): 本稿では,セキュリティ運用センター(SOCs)におけるヒューマン-AIコラボレーションのための構造化されたフレームワークについて述べる。
SOCの既存のフレームワークは、自動化に限定し、人間の監視を管理するための体系的な構造、信頼性の調整、AIによるスケーラブルな自律性を欠いていることが多い。
多くの人が静的あるいはバイナリな自律性の設定を前提としており、人間とAIのコラボレーションを考慮したSOCタスクの複雑さ、臨界性、リスクを考慮に入れていない。
これらの制限に対処するため、手動から完全自律までの5段階のAI自律性に基づく新しい自律型フレームワークを提案し、HITL(Human-in-the-Loop)の役割とタスク固有の信頼しきい値にマップする。
これにより、監視、保護、脅威検出、警告トリアージ、インシデント応答を含む、コアSOC関数間の適応的で説明可能なAI統合が可能になる。
提案手法は, 自律性, 信頼, HITLの相互関係を様々なSOCレベルにわたって形成し, 作業の複雑さや関連するリスクに応じてタスクの適応的分散を可能にすることによって, 従来の研究と差別化を図っている。
このフレームワークは、LLMベースのSOCアシスタントであるサイバーセキュリティAI-Avatarを特徴とする、シミュレートされたサイバーレンジを通じて実証されている。
AI-Avatarのケーススタディでは、SOCタスクに対する人間とAIのコラボレーション、警告疲労の低減、応答調整の強化、信頼の戦略的調整が説明されている。
この研究は、AIを代替するのではなく、人間の意思決定を強化する次世代認知SOCを設計するための理論的・実践的な側面と実現可能性の両方を体系的に提示する。
関連論文リスト
- Agentic AI for Cybersecurity: A Meta-Cognitive Architecture for Governable Autonomy [0.0]
本稿では,サイバーセキュリティのオーケストレーションはエージェント型マルチエージェント認知システムとして再認識されるべきである,と論じる。
本稿では,特定・仮説形成・文脈解釈・説明・ガバナンスに責任を負う異種AIエージェントを,メタ認知判断機能を通じて協調する概念的枠組みを提案する。
我々の貢献は、メタ認知判断を第一級システム機能として組み込むことによって、この認知構造をアーキテクチャ的に明確化し、統制可能にすることである。
論文 参考訳(メタデータ) (2026-02-12T12:52:49Z) - Human Society-Inspired Approaches to Agentic AI Security: The 4C Framework [19.576189199576053]
この記事では、社会的なガバナンスにインスパイアされたマルチエージェントAIセキュリティのための4Cフレームワークを紹介します。
AIのセキュリティを、システム中心の保護から、行動の完全性と意図のより広範な保存に移行することで、このフレームワークは、既存のAIセキュリティ戦略を補完する。
論文 参考訳(メタデータ) (2026-02-02T10:45:16Z) - Conformity and Social Impact on AI Agents [42.04722694386303]
本研究では,AIエージェントとして機能する大規模マルチモーダル言語モデルにおいて,社会圧力下での集団意見の一致傾向について検討した。
実験の結果,AIエージェントは社会影響理論と整合性バイアスを示し,グループサイズ,一様性,タスクの難易度,ソース特性に敏感であることがわかった。
これらの発見は、悪意のある操作、誤報キャンペーン、マルチエージェントシステムにおけるバイアス伝搬を可能にするAIエージェント決定における基本的なセキュリティ脆弱性を明らかにしている。
論文 参考訳(メタデータ) (2026-01-08T21:16:28Z) - Managing Ambiguity: A Proof of Concept of Human-AI Symbiotic Sense-making based on Quantum-Inspired Cognitive Mechanism of Rogue Variable Detection [39.146761527401424]
この研究は、あいまいさを一級構成とすることで管理理論に寄与する。
VUCA環境における組織的レジリエンスに対する人間-AI共生の実践的価値を示す。
論文 参考訳(メタデータ) (2025-12-17T11:23:18Z) - AURA: An Agent Autonomy Risk Assessment Framework [0.0]
AURA(Agent aUtonomy Risk Assessment)はエージェントAIによるリスクの検出、定量化、緩和を目的とした統合されたフレームワークである。
AURAは、1つまたは複数のAIエージェントを同期的に、あるいは非同期に実行するリスクをスコアし、評価し、緩和するインタラクティブなプロセスを提供する。
AURAはエージェントAIの責任と透過性をサポートし、計算リソースのバランスを保ちながら、堅牢なリスク検出と緩和を提供する。
論文 参考訳(メタデータ) (2025-10-17T15:30:29Z) - From Agentification to Self-Evolving Agentic AI for Wireless Networks: Concepts, Approaches, and Future Research Directions [70.72279728350763]
自律進化型エージェント人工知能(AI)は、将来の無線システムに新しいパラダイムを提供する。
静的AIモデルとは異なり、自己進化エージェントは、モデルやツールを更新し、環境ダイナミクスに対応する自律進化サイクルを組み込む。
本稿では,自己進化型エージェントAIの概要を概説し,その階層化アーキテクチャ,ライフサイクル,鍵となる技術について述べる。
論文 参考訳(メタデータ) (2025-10-07T05:45:25Z) - A cybersecurity AI agent selection and decision support framework [0.0]
本稿では,AIエージェントアーキテクチャ,リアクティブ,認知,ハイブリッド,学習を協調する,新しい構造化された意思決定支援フレームワークを提案する。
エージェント理論と産業ガイドラインを統合することで、このフレームワークは、AIソリューションの選択とデプロイのための透過的で段階的な方法論を提供する。
論文 参考訳(メタデータ) (2025-10-02T07:38:21Z) - Agentic Services Computing [51.50424046053763]
本稿では,自律的,適応的,協調的なエージェントとしてサービスを再定義するパラダイムであるエージェントサービスコンピューティングを提案する。
ASCは、設計、デプロイ、運用、進化という4段階のライフサイクルを包含しています。
論文 参考訳(メタデータ) (2025-09-29T07:29:18Z) - DeCoDe: Defer-and-Complement Decision-Making via Decoupled Concept Bottleneck Models [37.118479480792416]
我々は人間-AI協調のための概念駆動型フレームワークを提案する。
DeCoDeは人間解釈可能な概念表現に基づいて戦略決定を行う。
自律的なAI予測、人間への延期、人間とAIの協調的な相補性という3つのモードをサポートする。
論文 参考訳(メタデータ) (2025-05-25T16:34:45Z) - A Task-Driven Human-AI Collaboration: When to Automate, When to Collaborate, When to Challenge [16.734679201317896]
性能を改善しつつ、適切な人間とAIの統合が有意義なエージェンシーを維持するかを示す。
この枠組みは、実用的で道徳的に健全な人間とAIのコラボレーションの基礎を築いた。
論文 参考訳(メタデータ) (2025-05-23T23:19:15Z) - Internet of Agents: Fundamentals, Applications, and Challenges [66.44234034282421]
異種エージェント間のシームレスな相互接続、動的発見、協調的なオーケストレーションを可能にする基盤となるフレームワークとして、エージェントのインターネット(IoA)を紹介した。
我々は,機能通知と発見,適応通信プロトコル,動的タスクマッチング,コンセンサスとコンフリクト解決機構,インセンティブモデルなど,IoAの重要な運用イネーラを分析した。
論文 参考訳(メタデータ) (2025-05-12T02:04:37Z) - Towards AI-Driven Human-Machine Co-Teaming for Adaptive and Agile Cyber Security Operation Centers [3.959615037146599]
セキュリティオペレーションセンター(SOC)は、大量のアラート、熟練したアナリストの不足、不十分な統合ツールによって、サイバーセキュリティの脅威を管理する上で、ますます難しい課題に直面している。
我々は、脅威インテリジェンス、警告トリアージ、インシデント応答を強化するために、大規模言語モデル(LLM)を活用するAI駆動のヒューマンマシン共同チームパラダイムを導入する。
我々は,LSMをベースとしたAIエージェントが,SOC操作に埋め込まれた暗黙の知識を人間アナリストから学ぶというビジョンを提示する。
論文 参考訳(メタデータ) (2025-05-09T19:38:26Z) - Perceptions of Agentic AI in Organizations: Implications for Responsible AI and ROI [0.0]
本稿では,エージェントAIの出現する状況の中で,組織がこのようなフレームワークをどのように認識し,適応するかを検討する。
エージェントAIシステムの本質的な複雑さと、その責任ある実装は、責任あるAI次元とテーマフレームワークの複雑な相互接続性に根ざし、組織的適応における重大な課題に寄与している。
論文 参考訳(メタデータ) (2025-04-15T19:15:06Z) - Do LLMs trust AI regulation? Emerging behaviour of game-theoretic LLM agents [61.132523071109354]
本稿では、異なる規制シナリオ下での戦略選択をモデル化する、AI開発者、規制当局、ユーザ間の相互作用について検討する。
我々の研究は、純粋なゲーム理論エージェントよりも「悲観的」な姿勢を採用する傾向にある戦略的AIエージェントの出現する振る舞いを特定する。
論文 参考訳(メタデータ) (2025-04-11T15:41:21Z) - Human-AI Collaboration in Cloud Security: Cognitive Hierarchy-Driven Deep Reinforcement Learning [7.370441344885935]
セキュリティ運用センター(SOC)は、高度な永続脅威(APT)に対抗するために、AI駆動の適応防御機構を採用しなければならない。
本稿では、SOCアナリストとAI駆動のAPTボット間の対話的意思決定をモデル化する、認知階層理論駆動型深層Q-ネットワーク(CHT-DQN)フレームワークを提案する。
我々のフレームワークは攻撃グラフに基づく強化学習を用いて適応的なSOC防御を強化する。
論文 参考訳(メタデータ) (2025-02-22T03:19:21Z) - Position: Emergent Machina Sapiens Urge Rethinking Multi-Agent Paradigms [8.177915265718703]
AIエージェントは、目的を動的に調整する権限を持つべきだ、と私たちは主張する。
私たちは、これらのマルチエージェントAIシステムの創発的で、自己組織化され、コンテキストに配慮した性質へのシフトを呼びかけます。
論文 参考訳(メタデータ) (2025-02-05T22:20:15Z) - Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Quantifying AI Vulnerabilities: A Synthesis of Complexity, Dynamical Systems, and Game Theory [0.0]
システム複雑度指数(SCI)、Lyapunov Exponent for AI stability(LEAIS)、Nash Equilibrium Robustness(NER)の3つの指標を導入する新しいアプローチを提案する。
SCIはAIシステムの固有の複雑さを定量化し、LEAISはその安定性と摂動に対する感受性を捉え、NERは敵の操作に対する戦略的堅牢性を評価する。
論文 参考訳(メタデータ) (2024-04-07T07:05:59Z) - Autonomous Open-Ended Learning of Tasks with Non-Stationary
Interdependencies [64.0476282000118]
固有のモチベーションは、目標間のトレーニング時間を適切に割り当てるタスクに依存しないシグナルを生成することが証明されている。
内在的に動機付けられたオープンエンドラーニングの分野におけるほとんどの研究は、目標が互いに独立しているシナリオに焦点を当てているが、相互依存タスクの自律的な獲得を研究するのはごくわずかである。
特に,タスク間の関係に関する情報をアーキテクチャのより高レベルなレベルで組み込むことの重要性を示す。
そして、自律的に取得したシーケンスを格納する新しい学習層を追加することで、前者を拡張する新しいシステムであるH-GRAILを紹介する。
論文 参考訳(メタデータ) (2022-05-16T10:43:01Z) - Watch-And-Help: A Challenge for Social Perception and Human-AI
Collaboration [116.28433607265573]
我々は、AIエージェントでソーシャルインテリジェンスをテストするための課題であるWatch-And-Help(WAH)を紹介する。
WAHでは、AIエージェントは、人間のようなエージェントが複雑な家庭用タスクを効率的に実行するのを助ける必要がある。
マルチエージェントの家庭環境であるVirtualHome-Socialを構築し、計画と学習ベースのベースラインを含むベンチマークを提供する。
論文 参考訳(メタデータ) (2020-10-19T21:48:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。