論文の概要: Enhancing Cloud Network Resilience via a Robust LLM-Empowered Multi-Agent Reinforcement Learning Framework
- arxiv url: http://arxiv.org/abs/2601.07122v1
- Date: Mon, 12 Jan 2026 01:25:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.171448
- Title: Enhancing Cloud Network Resilience via a Robust LLM-Empowered Multi-Agent Reinforcement Learning Framework
- Title(参考訳): ロバストLLMを用いたマルチエージェント強化学習フレームワークによるクラウドネットワークレジリエンスの強化
- Authors: Yixiao Peng, Hao Hu, Feiyang Li, Xinye Cao, Yingchang Jiang, Jipeng Tang, Guoshun Nan, Yuling Liu,
- Abstract要約: CyberOps-Botsは、Large Language Models (LLM)によって強化された階層型マルチエージェント強化学習フレームワークである。
実際のクラウドデータセットの実験では、最先端のアルゴリズムと比較して、CyberOps-Botsはネットワーク可用性を68.5%高く維持している。
当社のフレームワークをコミュニティにリリースし、クラウドネットワークにおける堅牢で自律的な防衛の進展を促進します。
- 参考スコア(独自算出の注目度): 9.460661802313835
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While virtualization and resource pooling empower cloud networks with structural flexibility and elastic scalability, they inevitably expand the attack surface and challenge cyber resilience. Reinforcement Learning (RL)-based defense strategies have been developed to optimize resource deployment and isolation policies under adversarial conditions, aiming to enhance system resilience by maintaining and restoring network availability. However, existing approaches lack robustness as they require retraining to adapt to dynamic changes in network structure, node scale, attack strategies, and attack intensity. Furthermore, the lack of Human-in-the-Loop (HITL) support limits interpretability and flexibility. To address these limitations, we propose CyberOps-Bots, a hierarchical multi-agent reinforcement learning framework empowered by Large Language Models (LLMs). Inspired by MITRE ATT&CK's Tactics-Techniques model, CyberOps-Bots features a two-layer architecture: (1) An upper-level LLM agent with four modules--ReAct planning, IPDRR-based perception, long-short term memory, and action/tool integration--performs global awareness, human intent recognition, and tactical planning; (2) Lower-level RL agents, developed via heterogeneous separated pre-training, execute atomic defense actions within localized network regions. This synergy preserves LLM adaptability and interpretability while ensuring reliable RL execution. Experiments on real cloud datasets show that, compared to state-of-the-art algorithms, CyberOps-Bots maintains network availability 68.5% higher and achieves a 34.7% jumpstart performance gain when shifting the scenarios without retraining. To our knowledge, this is the first study to establish a robust LLM-RL framework with HITL support for cloud defense. We will release our framework to the community, facilitating the advancement of robust and autonomous defense in cloud networks.
- Abstract(参考訳): 仮想化とリソースプーリングは、構造的柔軟性と柔軟なスケーラビリティを備えたクラウドネットワークに力を与えるが、攻撃面を必然的に拡大し、サイバーレジリエンスに挑戦する。
強化学習(Reinforcement Learning, RL)をベースとした防衛戦略が開発され, ネットワークの可用性を維持し, 回復させることでシステムのレジリエンスを高めることを目的として, 敵条件下での資源配置と隔離政策の最適化が図られている。
しかし、ネットワーク構造、ノードスケール、攻撃戦略、攻撃強度の動的変化に対応するために再訓練を必要とするため、既存のアプローチは堅牢性に欠ける。
さらに、Human-in-the-Loop(HITL)の欠如は、解釈可能性と柔軟性を制限している。
このような制約に対処するため,大規模言語モデル(LLM)によって強化された階層型マルチエージェント強化学習フレームワークであるCyberOps-Botsを提案する。
MITRE ATT&CKのTactics-TechniquesモデルにインスパイアされたCyberOps-Botsは、(1)4つのモジュールを持つ上位レベルのLLMエージェント、-ReAct Planning、IDDRRベースの知覚、長期記憶、およびアクション/ツール統合--グローバルな認識、人間の意図認識、戦術的プランニングをパフォーマンスする。
このシナジーは、信頼性の高いRL実行を確保しつつ、LLM適応性と解釈性を維持する。
実際のクラウドデータセットの実験では、最先端のアルゴリズムと比較して、CyberOps-Botsはネットワーク可用性を68.5%高く維持し、再トレーニングなしでシナリオをシフトした場合、34.7%のパフォーマンス向上を達成した。
我々の知る限り、HITL がクラウド防衛をサポートする堅牢な LLM-RL フレームワークを確立する最初の研究である。
当社のフレームワークをコミュニティにリリースし、クラウドネットワークにおける堅牢で自律的な防衛の進展を促進します。
関連論文リスト
- Adversarial Attack-Defense Co-Evolution for LLM Safety Alignment via Tree-Group Dual-Aware Search and Optimization [51.12422886183246]
大規模言語モデル(LLM)は、Webサービスにおいて急速に発展し、社会的リスクを増幅しつつ、前例のない能力を提供してきた。
既存の作業は、分離されたジェイルブレイク攻撃または静的防御に重点を置いており、現実世界のWebコンテキストにおける進化する脅威とセーフガードの間の動的な相互作用を無視している。
ACE-Safetyは、2つの重要な革新的手順をシームレスに統合することにより、攻撃と防御モデルを協調的に最適化する新しいフレームワークである。
論文 参考訳(メタデータ) (2025-11-24T15:23:41Z) - Grounded in Reality: Learning and Deploying Proactive LLM from Offline Logs [72.08224879435762]
textttLearn-to-Askは、プロアクティブな対話エージェントの学習とデプロイのためのシミュレータフリーフレームワークである。
当社のアプローチは,LLMの大規模オンラインAIサービスへの展開を成功に導くものです。
論文 参考訳(メタデータ) (2025-10-29T12:08:07Z) - Rethinking the Role of Dynamic Sparse Training for Scalable Deep Reinforcement Learning [58.533203990515034]
ニューラルネットワークのスケーリングは機械学習における画期的な進歩をもたらしたが、このパラダイムは深層強化学習(DRL)では失敗している。
我々は、動的スパーストレーニング戦略が、アーキテクチャの改善によって確立された主要なスケーラビリティ基盤を補完するモジュール固有の利点を提供することを示す。
アーキテクチャ改善の利点を生かした実践的なフレームワークであるModule-Specific Training (MST) にこれらの知見を精査し、アルゴリズムの修正なしに様々なRLアルゴリズムをまたいだ大幅なスケーラビリティ向上を示す。
論文 参考訳(メタデータ) (2025-10-14T03:03:08Z) - L2M-AID: Autonomous Cyber-Physical Defense by Fusing Semantic Reasoning of Large Language Models with Multi-Agent Reinforcement Learning (Preprint) [16.291320202524187]
L2M-AIDは多エージェント強化学習を用いた自律型産業防衛のための新しいフレームワークである。
大規模言語モデル(LLM)によって駆動される協調エージェントのチームを編成し、適応的でレジリエンスなセキュリティを実現する。
その結果,L2M-AIDは従来のIDS,ディープラーニング異常検出器,単一エージェントRLベースラインよりも有意に優れていた。
論文 参考訳(メタデータ) (2025-10-08T17:46:39Z) - Network Sparsity Unlocks the Scaling Potential of Deep Reinforcement Learning [57.3885832382455]
静的ネットワークの疎結合を単独で導入することで,最先端アーキテクチャの高密度化を超えて,さらなるスケーリング可能性を実現することができることを示す。
解析の結果,高密度DRLネットワークをネーティブにスケールアップするのとは対照的に,疎ネットワークは高いパラメータ効率とネットワーク表現性を両立させることがわかった。
論文 参考訳(メタデータ) (2025-06-20T17:54:24Z) - Quantitative Resilience Modeling for Autonomous Cyber Defense [8.817401748976375]
サイバーレジリエンス(サイバーレジリエンス)とは、システムがシステム操作に最小限の影響で攻撃から回復する能力である。
多様なネットワークトポロジやアタックパターンに適用可能な、レジリエンスの正式な定義はありません。
複数のディフェンダ運用目標を考慮したレジリエンスの定量的定式化を提案する。
論文 参考訳(メタデータ) (2025-03-04T16:52:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。