論文の概要: LLMs in the SOC: An Empirical Study of Human-AI Collaboration in Security Operations Centres
- arxiv url: http://arxiv.org/abs/2508.18947v1
- Date: Tue, 26 Aug 2025 11:40:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.82036
- Title: LLMs in the SOC: An Empirical Study of Human-AI Collaboration in Security Operations Centres
- Title(参考訳): LLMs in the SOC: A empirical Study of Human-AI Collaboration in Security Operations Centres
- Authors: Ronal Singh, Shahroz Tariq, Fatemeh Jalalvand, Mohan Baruwal Chhetri, Surya Nepal, Cecile Paris, Martin Lochner,
- Abstract要約: 大規模言語モデルのセキュリティオペレーションセンター(SOC)への統合は、アナリストの作業量を削減するための変革的かつまだ進化している機会を提供する。
本稿では,SOCアナリスト45名を対象に,10ヶ月で3,090件の質問に対して縦断調査を行った。
分析の結果,LLMを高精細度判定ではなく,センスメイキングやコンテキストビルディングのオンデマンド支援として活用していることが判明した。
- 参考スコア(独自算出の注目度): 15.150052598613408
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The integration of Large Language Models (LLMs) into Security Operations Centres (SOCs) presents a transformative, yet still evolving, opportunity to reduce analyst workload through human-AI collaboration. However, their real-world application in SOCs remains underexplored. To address this gap, we present a longitudinal study of 3,090 analyst queries from 45 SOC analysts over 10 months. Our analysis reveals that analysts use LLMs as on-demand aids for sensemaking and context-building, rather than for making high-stakes determinations, preserving analyst decision authority. The majority of queries are related to interpreting low-level telemetry (e.g., commands) and refining technical communication through short (1-3 turn) interactions. Notably, 93% of queries align with established cybersecurity competencies (NICE Framework), underscoring the relevance of LLM use for SOC-related tasks. Despite variations in tasks and engagement, usage trends indicate a shift from occasional exploration to routine integration, with growing adoption and sustained use among a subset of analysts. We find that LLMs function as flexible, on-demand cognitive aids that augment, rather than replace, SOC expertise. Our study provides actionable guidance for designing context-aware, human-centred AI assistance in security operations, highlighting the need for further in-the-wild research on real-world analyst-LLM collaboration, challenges, and impacts.
- Abstract(参考訳): LLM(Large Language Models)をSecurity Operations Centres(SOC)に統合することは、人間とAIのコラボレーションを通じてアナリストの作業量を削減できる変革的だが、まだ進化している機会を提供する。
しかし、SOCにおける現実世界の応用はいまだ未定である。
このギャップに対処するために、45のSOCアナリストから10ヶ月にわたって3,090のアナリストクエリを経時的に分析した。
分析の結果、アナリストは高い意思決定をし、分析決定権を保持するのではなく、センスメイキングやコンテキストビルディングのオンデマンド支援としてLLMを使用していることが明らかとなった。
クエリの大部分は、低レベルのテレメトリ(例えばコマンド)の解釈と、短い(1-3ターン)インタラクションによる技術的コミュニケーションの精細化に関連している。
特に、93%のクエリは、確立されたサイバーセキュリティ能力(NICE Framework)と一致しており、SOC関連のタスクにおけるLLMの使用の関連性を強調している。
タスクやエンゲージメントのバリエーションにもかかわらず、利用傾向は時折調査から定期的な統合へと変化し、採用が増加し、アナリストのサブセットでの使用が持続していることを示している。
LLMは、SOCの専門知識を置き換えるのではなく、より柔軟でオンデマンドな認知支援として機能することがわかった。
我々の研究は、セキュリティオペレーションにおいてコンテキスト対応で人間中心のAIアシストを設計するための実用的なガイダンスを提供し、現実世界のアナリストとLLMのコラボレーション、課題、影響に関するさらなる研究の必要性を強調します。
関連論文リスト
- Bridging Expertise Gaps: The Role of LLMs in Human-AI Collaboration for Cybersecurity [17.780795900414716]
本研究では,大規模言語モデル(LLM)が知的協力者として機能し,サイバーセキュリティ意思決定における専門的ギャップを埋めることができるかを検討する。
我々は,人間とAIのコラボレーションによって作業性能が向上し,フィッシング検出における偽陽性と侵入検出における偽陰性が低減されることを見出した。
論文 参考訳(メタデータ) (2025-05-06T04:47:52Z) - An Overview of Large Language Models for Statisticians [109.38601458831545]
大規模言語モデル(LLM)は人工知能(AI)の変換ツールとして登場した。
本稿では, 統計学者がLLMの開発に重要な貢献できる可能性について考察する。
我々は不確実性定量化、解釈可能性、公正性、プライバシー、透かし、モデル適応といった問題に焦点を当てる。
論文 参考訳(メタデータ) (2025-02-25T03:40:36Z) - Applications and Implications of Large Language Models in Qualitative Analysis: A New Frontier for Empirical Software Engineering [0.46426852157920906]
この研究は、ソフトウェア工学における質的研究におけるLCMの使用を最適化するための構造化戦略とガイドラインの必要性を強調している。
LLMは質的な分析をサポートすることを約束していますが、データの解釈には人間の専門知識が不可欠です。
論文 参考訳(メタデータ) (2024-12-09T15:17:36Z) - The LLM Effect: Are Humans Truly Using LLMs, or Are They Being Influenced By Them Instead? [60.01746782465275]
大規模言語モデル(LLM)は、様々な分析タスクにおいて、人間のパフォーマンスに近い能力を示している。
本稿では,Human-LLMパートナーシップに着目した構造化ユーザスタディにより,特殊作業におけるLLMの効率と精度について検討する。
論文 参考訳(メタデータ) (2024-10-07T02:30:18Z) - The Imperative of Conversation Analysis in the Era of LLMs: A Survey of Tasks, Techniques, and Trends [64.99423243200296]
会話分析(CA)は、会話データから重要な情報を発見し分析する。
本稿では,CAタスクの徹底的なレビューとシステム化を行い,既存の業務を要約する。
会話シーンの再構築,奥行きの属性分析,ターゲットトレーニングの実行,会話の生成から,CAの4つの重要なステップを導出した。
論文 参考訳(メタデータ) (2024-09-21T16:52:43Z) - Cooperate or Collapse: Emergence of Sustainable Cooperation in a Society of LLM Agents [101.17919953243107]
GovSimは、大規模言語モデル(LLM)における戦略的相互作用と協調的意思決定を研究するために設計された生成シミュレーションプラットフォームである。
最強のLSMエージェントを除く全てのエージェントは、GovSimの持続的均衡を達成することができず、生存率は54%以下である。
道徳的思考の理論である「大学化」に基づく推論を活用するエージェントは、持続可能性を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-04-25T15:59:16Z) - A Survey on Large Language Model based Autonomous Agents [105.2509166861984]
大規模言語モデル(LLM)は、人間レベルの知性を達成する上で、顕著な可能性を示している。
本稿では,LLMに基づく自律エージェントの分野を総合的な観点から体系的に検討する。
本稿では、社会科学、自然科学、工学の分野におけるLLMベースの自律エージェントの多様な応用について概観する。
論文 参考訳(メタデータ) (2023-08-22T13:30:37Z) - Sentiment Analysis in the Era of Large Language Models: A Reality Check [69.97942065617664]
本稿では,大規模言語モデル(LLM)の様々な感情分析タスクの実行能力について検討する。
26のデータセット上の13のタスクのパフォーマンスを評価し、ドメイン固有のデータセットに基づいて訓練された小言語モデル(SLM)と比較した。
論文 参考訳(メタデータ) (2023-05-24T10:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。