論文の概要: In-Context Autonomous Network Incident Response: An End-to-End Large Language Model Agent Approach
- arxiv url: http://arxiv.org/abs/2602.13156v1
- Date: Fri, 13 Feb 2026 18:09:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:54.070585
- Title: In-Context Autonomous Network Incident Response: An End-to-End Large Language Model Agent Approach
- Title(参考訳): インコンテキスト自律型ネットワークインシデント応答: エンドツーエンドの大規模言語モデルエージェントアプローチ
- Authors: Yiran Gao, Kim Hammar, Tao Li,
- Abstract要約: 我々は,大規模言語モデルの事前訓練されたセキュリティ知識とコンテキスト内学習を活用して,インシデント対応計画のためのエンドツーエンドのエージェントソリューションを作成することを提案する。
具体的には、認識、推論、計画、行動の4つの機能を1つの軽量LCM(14bモデル)に統合する。
我々のエージェントは、フロンティアLSMよりも最大で23%早く回復できる。
- 参考スコア(独自算出の注目度): 3.733830491643117
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Rapidly evolving cyberattacks demand incident response systems that can autonomously learn and adapt to changing threats. Prior work has extensively explored the reinforcement learning approach, which involves learning response strategies through extensive simulation of the incident. While this approach can be effective, it requires handcrafted modeling of the simulator and suppresses useful semantics from raw system logs and alerts. To address these limitations, we propose to leverage large language models' (LLM) pre-trained security knowledge and in-context learning to create an end-to-end agentic solution for incident response planning. Specifically, our agent integrates four functionalities, perception, reasoning, planning, and action, into one lightweight LLM (14b model). Through fine-tuning and chain-of-thought reasoning, our LLM agent is capable of processing system logs and inferring the underlying network state (perception), updating its conjecture of attack models (reasoning), simulating consequences under different response strategies (planning), and generating an effective response (action). By comparing LLM-simulated outcomes with actual observations, the LLM agent repeatedly refines its attack conjecture and corresponding response, thereby demonstrating in-context adaptation. Our agentic approach is free of modeling and can run on commodity hardware. When evaluated on incident logs reported in the literature, our agent achieves recovery up to 23% faster than those of frontier LLMs.
- Abstract(参考訳): 急速に進化するサイバー攻撃は、自律的に学習し、変化する脅威に適応できるインシデント対応システムを要求する。
先行研究は、インシデントを広範囲にシミュレーションすることで、応答戦略を学習する強化学習アプローチを幅広く検討してきた。
このアプローチは効果的だが、シミュレータの手作りのモデリングが必要であり、生のシステムログとアラートから有用なセマンティクスを抑圧する。
これらの制約に対処するために,大規模言語モデル(LLM)の事前訓練されたセキュリティ知識とコンテキスト内学習を活用して,インシデント対応計画のためのエンドツーエンドのエージェントソリューションを作成することを提案する。
具体的には、認識、推論、計画、行動の4つの機能を1つの軽量LCM(14bモデル)に統合する。
我々のLLMエージェントは、微調整と連鎖推論により、システムログを処理し、基盤となるネットワーク状態(パーセプション)を推測し、攻撃モデル(推論)の予想を更新し、異なる応答戦略(計画)の下で結果をシミュレートし、効果的な応答(アクション)を生成することができる。
LLMシミュレーション結果と実際の観測結果を比較することにより、LLMエージェントは攻撃予測と対応する応答を繰り返し洗練し、文脈内適応を示す。
我々のエージェント的アプローチはモデリングが不要で、コモディティハードウェア上で実行できます。
文献で報告されたインシデントログに基づいて評価すると,本エージェントはフロンティアLSMよりも最大23%高速に回復する。
関連論文リスト
- ResMAS: Resilience Optimization in LLM-based Multi-agent Systems [37.355345383912756]
大規模言語モデルに基づくマルチエージェントシステム(LLMベースMAS)
LLMベースのMASは一般的に異なるデバイスや環境に分散しており、エージェント障害などの摂動に弱い。
摂動下でのMASのレジリエンスについて検討し、通信トポロジと迅速な設計の両方がシステムのレジリエンスに大きく影響していることを見出した。
論文 参考訳(メタデータ) (2026-01-08T08:03:37Z) - rSIM: Incentivizing Reasoning Capabilities of LLMs via Reinforced Strategy Injection [49.74493901036598]
大規模言語モデル(LLM)は強化学習(RL)を通して後訓練され、推論言語モデル(RLM)へと進化する。
本稿では, 小型プランナを用いることで, LLM を RLM にすることができる新規な強化戦略注入機構 (rSIM) を提案する。
実験結果から、rSIMによりQwen2.5-0.5BはRLMとなり、Qwen2.5-14Bより大幅に優れていた。
論文 参考訳(メタデータ) (2025-12-09T06:55:39Z) - Can Prompt Difficulty be Online Predicted for Accelerating RL Finetuning of Reasoning Models? [65.18157595903124]
本研究では任意のプロンプトの反復的近似評価について検討する。
Model Predictive Prompt Selection (MoPPS)はベイズにおけるリスク予測フレームワークである。
MoPPSは迅速な困難を確実に予測し、ロールアウトを大幅に削減したトレーニングを加速する。
論文 参考訳(メタデータ) (2025-07-07T03:20:52Z) - IRCopilot: Automated Incident Response with Large Language Models [25.3990746451595]
大規模言語モデル(LLM)は早期の脅威検出に大きな可能性を示している。
侵入後の自動インシデント応答に関しては、その能力は依然として制限されている。
LLMを用いた自動インシデント応答のための新しいフレームワークIRCopilotを提案する。
論文 参考訳(メタデータ) (2025-05-27T09:29:11Z) - Planning without Search: Refining Frontier LLMs with Offline Goal-Conditioned RL [62.984693936073974]
大きな言語モデル(LLM)は、質問応答や対話といったタスクに優れています。
交渉や説得のような相互作用を必要とする複雑なタスクは、さらなる長期の推論と計画を必要とする。
目的条件付き値関数を用いて LLM エージェントの推論を導出する手法を提案する。
論文 参考訳(メタデータ) (2025-05-23T16:51:54Z) - Scaling Autonomous Agents via Automatic Reward Modeling And Planning [52.39395405893965]
大規模言語モデル(LLM)は、様々なタスクにまたがる顕著な機能を示している。
しかし、彼らは多段階の意思決定と環境フィードバックを必要とする問題に苦戦している。
人間のアノテーションを使わずに環境から報酬モデルを自動的に学習できるフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-17T18:49:25Z) - Recursive Introspection: Teaching Language Model Agents How to Self-Improve [30.086494067593268]
RISE: Recursive IntroSpEctionは,大規模言語モデルを微調整する手法である。
実験の結果,RISEはLlama2,Llama3,Mistralの各モデルに対して,数学推論タスクのターン数を増やすことで自己改善を可能にすることがわかった。
論文 参考訳(メタデータ) (2024-07-25T17:35:59Z) - From Words to Actions: Unveiling the Theoretical Underpinnings of LLM-Driven Autonomous Systems [59.40480894948944]
大規模言語モデル (LLM) は、物理世界の意思決定問題を解くことができる。
このモデルの下で、LLM Plannerは、プロンプトを介して言語ベースのサブゴールを反復的に生成することにより、部分的に観測可能なマルコフ決定プロセス(POMDP)をナビゲートする。
我々は,事前学習したLLMプランナーが,文脈内学習を通じてベイズ的集計模倣学習(BAIL)を効果的に行うことを証明した。
論文 参考訳(メタデータ) (2024-05-30T09:42:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。