論文の概要: Towards AI-Driven Human-Machine Co-Teaming for Adaptive and Agile Cyber Security Operation Centers
- arxiv url: http://arxiv.org/abs/2505.06394v1
- Date: Fri, 09 May 2025 19:38:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:48.824815
- Title: Towards AI-Driven Human-Machine Co-Teaming for Adaptive and Agile Cyber Security Operation Centers
- Title(参考訳): 適応的でアジャイルなサイバーセキュリティ運用センターのためのAI駆動のヒューマンマシン共同作業に向けて
- Authors: Massimiliano Albanese, Xinming Ou, Kevin Lybarger, Daniel Lende, Dmitry Goldgof,
- Abstract要約: セキュリティオペレーションセンター(SOC)は、大量のアラート、熟練したアナリストの不足、不十分な統合ツールによって、サイバーセキュリティの脅威を管理する上で、ますます難しい課題に直面している。
我々は、脅威インテリジェンス、警告トリアージ、インシデント応答を強化するために、大規模言語モデル(LLM)を活用するAI駆動のヒューマンマシン共同チームパラダイムを導入する。
我々は,LSMをベースとしたAIエージェントが,SOC操作に埋め込まれた暗黙の知識を人間アナリストから学ぶというビジョンを提示する。
- 参考スコア(独自算出の注目度): 3.959615037146599
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Security Operations Centers (SOCs) face growing challenges in managing cybersecurity threats due to an overwhelming volume of alerts, a shortage of skilled analysts, and poorly integrated tools. Human-AI collaboration offers a promising path to augment the capabilities of SOC analysts while reducing their cognitive overload. To this end, we introduce an AI-driven human-machine co-teaming paradigm that leverages large language models (LLMs) to enhance threat intelligence, alert triage, and incident response workflows. We present a vision in which LLM-based AI agents learn from human analysts the tacit knowledge embedded in SOC operations, enabling the AI agents to improve their performance on SOC tasks through this co-teaming. We invite SOCs to collaborate with us to further develop this process and uncover replicable patterns where human-AI co-teaming yields measurable improvements in SOC productivity.
- Abstract(参考訳): セキュリティオペレーションセンター(SOC)は、大量のアラート、熟練したアナリストの不足、不十分な統合ツールによって、サイバーセキュリティの脅威を管理する上で、ますます難しい課題に直面している。
人間とAIのコラボレーションは、認知的過負荷を減らしながら、SOCアナリストの能力を増強する有望な道を提供する。
この目的のために、脅威インテリジェンス、警告トリアージ、インシデント対応ワークフローを強化するために、大規模言語モデル(LLM)を活用するAI駆動のヒューマンマシン共同チームパラダイムを導入する。
我々は,LSMをベースとしたAIエージェントが,SOC操作に埋め込まれた暗黙の知識を人間アナリストから学ぶというビジョンを提示する。
私たちはSOCに協力して、このプロセスをさらに発展させ、人間-AIの共同作業がSOC生産性の計測可能な改善をもたらすレプリカブルなパターンを明らかにするように依頼します。
関連論文リスト
- Towards Effective Human-in-the-Loop Assistive AI Agents [15.11527529177358]
本稿では,AI指導が手続き的タスクのパフォーマンスに与える影響を評価するための評価フレームワークと人間-AIインタラクションのデータセットを紹介する。
また、料理から戦場医療まで、現実世界のタスクにおけるインタラクティブなガイダンスを提供するAR搭載AIエージェントも開発しています。
論文 参考訳(メタデータ) (2025-07-24T12:50:46Z) - Operationalizing AI for Good: Spotlight on Deployment and Integration of AI Models in Humanitarian Work [52.96150571365764]
人道的・人道的組織(H2H)との密接なコラボレーションの詳細を共有します。
リソース制約のある環境でAIモデルをデプロイする方法、継続的なパフォーマンスアップデートのためにそのメンテナンス方法について論じる。
論文 参考訳(メタデータ) (2025-07-21T17:30:38Z) - A Unified Framework for Human AI Collaboration in Security Operations Centers with Trusted Autonomy [10.85035493967822]
本稿では,セキュリティ・オペレーション・センター(SOC)におけるヒューマン・AI連携のための構造化された枠組みについて述べる。
我々は,手動から完全自律までの5段階のAI自律性に基づく,新しい自律型フレームワークを提案する。
これにより、監視、保護、脅威検出、警告トリアージ、インシデント応答を含む、コアSOC関数間の適応的で説明可能なAI統合が可能になる。
論文 参考訳(メタデータ) (2025-05-29T12:35:08Z) - A Task-Driven Human-AI Collaboration: When to Automate, When to Collaborate, When to Challenge [16.734679201317896]
性能を改善しつつ、適切な人間とAIの統合が有意義なエージェンシーを維持するかを示す。
この枠組みは、実用的で道徳的に健全な人間とAIのコラボレーションの基礎を築いた。
論文 参考訳(メタデータ) (2025-05-23T23:19:15Z) - Modeling AI-Human Collaboration as a Multi-Agent Adaptation [0.0]
タスクの関数としてAIと人間のコラボレーションを形式化するエージェントベースのシミュレーションを開発する。
モジュラータスクでは、AIが人間の代わりになることが多いことを示します。
また、記憶や構造が欠如している「幻覚的」AIでさえ、ローカルオプティマから逃れることによって、低能力な人間を増強することで、結果を改善することも示しています。
論文 参考訳(メタデータ) (2025-04-29T16:19:53Z) - Human-AI Collaboration in Cloud Security: Cognitive Hierarchy-Driven Deep Reinforcement Learning [7.370441344885935]
セキュリティ運用センター(SOC)は、高度な永続脅威(APT)に対抗するために、AI駆動の適応防御機構を採用しなければならない。
本稿では、SOCアナリストとAI駆動のAPTボット間の対話的意思決定をモデル化する、認知階層理論駆動型深層Q-ネットワーク(CHT-DQN)フレームワークを提案する。
我々のフレームワークは攻撃グラフに基づく強化学習を用いて適応的なSOC防御を強化する。
論文 参考訳(メタデータ) (2025-02-22T03:19:21Z) - Intelligent Mobile AI-Generated Content Services via Interactive Prompt Engineering and Dynamic Service Provisioning [55.641299901038316]
AI生成コンテンツは、ネットワークエッジで協調的なMobile AIGC Service Providers(MASP)を編成して、リソース制約のあるユーザにユビキタスでカスタマイズされたコンテンツを提供することができる。
このようなパラダイムは2つの大きな課題に直面している: 1) 生のプロンプトは、ユーザーが特定のAIGCモデルで経験していないために、しばしば生成品質が低下する。
本研究では,Large Language Model (LLM) を利用してカスタマイズしたプロンプトコーパスを生成する対話型プロンプトエンジニアリング機構を開発し,政策模倣に逆強化学習(IRL)を用いる。
論文 参考訳(メタデータ) (2025-02-17T03:05:20Z) - Exploring the Adversarial Vulnerabilities of Vision-Language-Action Models in Robotics [68.36528819227641]
本稿では,VLAに基づくロボットシステムのロバスト性を体系的に評価する。
本研究では,ロボット行動の不安定化に空間的基盤を活用する2つの未目標攻撃目標と,ロボット軌道を操作する目標攻撃目標を導入する。
我々は、カメラの視野に小さなカラフルなパッチを配置し、デジタルと物理の両方の環境で効果的に攻撃を実行する逆パッチ生成アプローチを設計する。
論文 参考訳(メタデータ) (2024-11-18T01:52:20Z) - AI-Driven Human-Autonomy Teaming in Tactical Operations: Proposed Framework, Challenges, and Future Directions [10.16399860867284]
人工知能(AI)技術は、人間の意思決定能力を増強することで戦術的操作を変革している。
本稿では,AI駆動型人間自律チーム(HAT)を変革的アプローチとして検討する。
我々はAI駆動型HATの重要なコンポーネントに対処する包括的フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-28T15:05:16Z) - Large Model Based Agents: State-of-the-Art, Cooperation Paradigms, Security and Privacy, and Future Trends [64.57762280003618]
近い将来、LM駆動の汎用AIエージェントが、生産タスクにおいて不可欠なツールとして機能することが予想される。
本稿では,将来のLMエージェントの自律的協調に関わるシナリオについて検討する。
論文 参考訳(メタデータ) (2024-09-22T14:09:49Z) - Mutual Theory of Mind in Human-AI Collaboration: An Empirical Study with LLM-driven AI Agents in a Real-time Shared Workspace Task [56.92961847155029]
心の理論(ToM)は、他人を理解する上で重要な能力として、人間の協調とコミュニケーションに大きな影響を及ぼす。
Mutual Theory of Mind (MToM) は、ToM能力を持つAIエージェントが人間と協力するときに発生する。
エージェントのToM能力はチームのパフォーマンスに大きな影響を与えず,エージェントの人間的理解を高めていることがわかった。
論文 参考訳(メタデータ) (2024-09-13T13:19:48Z) - Towards an AI-Enhanced Cyber Threat Intelligence Processing Pipeline [0.0]
本稿では,人工知能(AI)をサイバー脅威知能(CTI)に統合する可能性について検討する。
我々は、AIに強化されたCTI処理パイプラインの青写真を提供し、そのコンポーネントと機能について詳述する。
倫理的ジレンマ、潜在的なバイアス、そしてAIによる意思決定における透明性の必須事項について論じる。
論文 参考訳(メタデータ) (2024-03-05T19:03:56Z) - Large Language Model-based Human-Agent Collaboration for Complex Task
Solving [94.3914058341565]
複雑なタスク解決のためのLarge Language Models(LLM)に基づくヒューマンエージェントコラボレーションの問題を紹介する。
Reinforcement Learning-based Human-Agent Collaboration method, ReHACを提案する。
このアプローチには、タスク解決プロセスにおける人間の介入の最も急進的な段階を決定するために設計されたポリシーモデルが含まれている。
論文 参考訳(メタデータ) (2024-02-20T11:03:36Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Watch-And-Help: A Challenge for Social Perception and Human-AI
Collaboration [116.28433607265573]
我々は、AIエージェントでソーシャルインテリジェンスをテストするための課題であるWatch-And-Help(WAH)を紹介する。
WAHでは、AIエージェントは、人間のようなエージェントが複雑な家庭用タスクを効率的に実行するのを助ける必要がある。
マルチエージェントの家庭環境であるVirtualHome-Socialを構築し、計画と学習ベースのベースラインを含むベンチマークを提供する。
論文 参考訳(メタデータ) (2020-10-19T21:48:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。