論文の概要: Human-AI Collaboration in Cloud Security: Cognitive Hierarchy-Driven Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2502.16054v1
- Date: Sat, 22 Feb 2025 03:19:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:55:44.018854
- Title: Human-AI Collaboration in Cloud Security: Cognitive Hierarchy-Driven Deep Reinforcement Learning
- Title(参考訳): クラウドセキュリティにおけるヒューマンAIコラボレーション - 認知階層型深層強化学習
- Authors: Zahra Aref, Sheng Wei, Narayan B. Mandayam,
- Abstract要約: SOC(Security Operations Centers)は、AI駆動のアダプティブディフェンスをAPT(Advanced Persistent Threats)と統合しなければならない。
本稿では,AI駆動型APTボットに対するSOCアナリストの意思決定をモデル化する,認知階層理論駆動型深層Q-Network(CHT-DQN)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 7.370441344885935
- License:
- Abstract: Given the complexity of multi-tenant cloud environments and the need for real-time threat mitigation, Security Operations Centers (SOCs) must integrate AI-driven adaptive defenses against Advanced Persistent Threats (APTs). However, SOC analysts struggle with countering adaptive adversarial tactics, necessitating intelligent decision-support frameworks. To enhance human-AI collaboration in SOCs, we propose a Cognitive Hierarchy Theory-driven Deep Q-Network (CHT-DQN) framework that models SOC analysts' decision-making against AI-driven APT bots. The SOC analyst (defender) operates at cognitive level-1, anticipating attacker strategies, while the APT bot (attacker) follows a level-0 exploitative policy. By incorporating CHT into DQN, our framework enhances SOC defense strategies via Attack Graph (AG)-based reinforcement learning. Simulation experiments across varying AG complexities show that CHT-DQN achieves higher data protection and lower action discrepancies compared to standard DQN. A theoretical lower bound analysis further validates its superior Q-value performance. A human-in-the-loop (HITL) evaluation on Amazon Mechanical Turk (MTurk) reveals that SOC analysts using CHT-DQN-driven transition probabilities align better with adaptive attackers, improving data protection. Additionally, human decision patterns exhibit risk aversion after failure and risk-seeking behavior after success, aligning with Prospect Theory. These findings underscore the potential of integrating cognitive modeling into deep reinforcement learning to enhance SOC operations and develop real-time adaptive cloud security mechanisms.
- Abstract(参考訳): マルチテナントクラウド環境の複雑さとリアルタイムの脅威軽減の必要性を考えると、セキュリティ運用センター(SOC)は、高度な永続化脅威(APT)に対するAI駆動の適応防御を統合する必要がある。
しかし、SOCアナリストは適応的な敵戦術に対抗するのに苦労し、インテリジェントな意思決定支援フレームワークを必要としている。
SOCにおける人間とAIの協調性を高めるために、SOCアナリストのAI駆動型APTボットに対する意思決定をモデル化する認知階層理論駆動型深層Q-Network(CHT-DQN)フレームワークを提案する。
SOCアナリスト(ディフェンダー)は、アタッカー戦略を予測する認知レベル1で動作し、APTボット(アタッカー)はレベル0のエクスプロイトポリシーに従う。
本フレームワークは,CHTをDQNに組み込むことで,攻撃グラフに基づく強化学習によるSOC防御戦略を強化する。
様々なAG複合体のシミュレーション実験により、CHT-DQNは標準のDQNよりも高いデータ保護と低いアクション不一致を実現することが示された。
理論的下界解析は、その優れたQ値性能をさらに検証する。
Amazon Mechanical Turk(MTurk)のHuman-in-the-loop(HITL)評価では、CHT-DQN駆動の遷移確率を用いたSOCアナリストがアダプティブアタッカーとよく一致し、データ保護が改善されている。
さらに、人間の意思決定パターンは失敗後のリスク回避と成功後のリスク探究行動を示し、プロスペクト理論と整合する。
これらの知見は、SOCオペレーションを強化し、リアルタイム適応型クラウドセキュリティメカニズムを開発するために、認知モデリングを深層強化学習に統合する可能性を示している。
関連論文リスト
- Beyond the Surface: An NLP-based Methodology to Automatically Estimate CVE Relevance for CAPEC Attack Patterns [42.63501759921809]
本稿では,自然言語処理(NLP)を利用して,共通脆弱性・暴露(CAPEC)脆弱性と共通攻撃パターン・分類(CAPEC)攻撃パターンを関連付ける手法を提案する。
実験による評価は,最先端モデルと比較して優れた性能を示した。
論文 参考訳(メタデータ) (2025-01-13T08:39:52Z) - CAT: Concept-level backdoor ATtacks for Concept Bottleneck Models [8.236058439213473]
概念ボトルネックモデル(CBM)は、高レベルな意味情報を活用することで、解釈可能性を改善するための重要なアプローチとして登場した。
CBMはセキュリティ上の脅威、特にモデル動作を隠蔽的に操作できるバックドア攻撃の影響を受けやすい。
CAT(Concept-level Backdoor ATtacks)は,CBM内の概念表現を利用して,トレーニング中にトリガを埋め込む手法である。
強化された攻撃パターンであるCAT+は、最も効果的でステルス的な概念トリガーを体系的に選択する相関関数を組み込んでいる。
論文 参考訳(メタデータ) (2024-10-07T08:14:17Z) - The Pitfalls and Promise of Conformal Inference Under Adversarial Attacks [90.52808174102157]
医療画像や自律運転などの安全クリティカルな応用においては、高い敵の堅牢性を維持し、潜在的敵の攻撃から保護することが不可欠である。
敵対的に訓練されたモデルに固有の不確実性に関して、注目すべき知識ギャップが残っている。
本研究では,共形予測(CP)の性能を標準対向攻撃の文脈で検証することにより,ディープラーニングモデルの不確実性について検討する。
論文 参考訳(メタデータ) (2024-05-14T18:05:19Z) - Quantifying AI Vulnerabilities: A Synthesis of Complexity, Dynamical Systems, and Game Theory [0.0]
システム複雑度指数(SCI)、Lyapunov Exponent for AI stability(LEAIS)、Nash Equilibrium Robustness(NER)の3つの指標を導入する新しいアプローチを提案する。
SCIはAIシステムの固有の複雑さを定量化し、LEAISはその安定性と摂動に対する感受性を捉え、NERは敵の操作に対する戦略的堅牢性を評価する。
論文 参考訳(メタデータ) (2024-04-07T07:05:59Z) - Layer-wise Regularized Adversarial Training using Layers Sustainability
Analysis (LSA) framework [8.701566919381223]
敵の攻撃に対する適切な解決策は、堅牢性と一般化の間のトレードオフに達する敵の訓練である。
本稿では,ニューラルネットワークの層脆弱性を敵攻撃のシナリオで解析するための新しいフレームワーク (Layer Sustainability Analysis) を提案する。
提案したアイデアは、最先端の多層パーセプトロンと畳み込みニューラルネットワークアーキテクチャに対して、理論上、実験的によく機能する。
論文 参考訳(メタデータ) (2022-02-05T20:05:53Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - Robust Deep Reinforcement Learning against Adversarial Perturbations on
State Observations [88.94162416324505]
深部強化学習(DRL)エージェントは、自然な測定誤差や対向雑音を含む観測を通して、その状態を観察する。
観測は真の状態から逸脱するので、エージェントを誤解させ、準最適行動を起こすことができる。
本研究は, 従来の手法を, 対人訓練などの分類タスクの堅牢性向上に応用することは, 多くのRLタスクには有効でないことを示す。
論文 参考訳(メタデータ) (2020-03-19T17:59:59Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。