論文の概要: Automated Cyber Defense with Generalizable Graph-based Reinforcement Learning Agents
- arxiv url: http://arxiv.org/abs/2509.16151v1
- Date: Fri, 19 Sep 2025 16:57:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 18:18:11.249988
- Title: Automated Cyber Defense with Generalizable Graph-based Reinforcement Learning Agents
- Title(参考訳): 一般化可能なグラフベース強化学習エージェントによるサイバー防御の自動化
- Authors: Isaiah J. King, Benjamin Bowman, H. Howie Huang,
- Abstract要約: ディープ強化学習は、自動化サイバー防御のための実行可能な戦略として浮上している。
本研究では,ACDを文脈に基づく部分的に観測可能なマルコフ決定問題とみなす。
このアプローチは最先端技術よりも広いマージンで優れていることを示す。
- 参考スコア(独自算出の注目度): 7.45063623129985
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Deep reinforcement learning (RL) is emerging as a viable strategy for automated cyber defense (ACD). The traditional RL approach represents networks as a list of computers in various states of safety or threat. Unfortunately, these models are forced to overfit to specific network topologies, rendering them ineffective when faced with even small environmental perturbations. In this work, we frame ACD as a two-player context-based partially observable Markov decision problem with observations represented as attributed graphs. This approach allows our agents to reason through the lens of relational inductive bias. Agents learn how to reason about hosts interacting with other system entities in a more general manner, and their actions are understood as edits to the graph representing the environment. By introducing this bias, we will show that our agents can better reason about the states of networks and zero-shot adapt to new ones. We show that this approach outperforms the state-of-the-art by a wide margin, and makes our agents capable of defending never-before-seen networks against a wide range of adversaries in a variety of complex, and multi-agent environments.
- Abstract(参考訳): 自動サイバー防衛(ACD)のための実行可能な戦略として、深層強化学習(RL)が登場している。
従来のRLアプローチは、ネットワークを様々な安全性や脅威状態のコンピュータのリストとして表現している。
残念なことに、これらのモデルは特定のネットワークトポロジに過度に適合し、小さな環境変動に直面しても効果がない。
本研究では,ACDを,属性グラフとして表現された観測値を用いて,文脈に基づく部分的に観測可能なマルコフ決定問題とみなす。
このアプローチにより、エージェントは関係帰納バイアスのレンズを通して推論できる。
エージェントは、他のシステムエンティティと相互作用するホストをより一般的な方法で推論する方法を学び、それらのアクションは環境を表すグラフの編集として理解される。
このバイアスを導入することで、エージェントがネットワークの状態やゼロショットを新しいものに適応できることを示す。
提案手法は,様々な複雑なマルチエージェント環境において,従来来なかったネットワークを幅広い敵に対して防御する能力を持つエージェントを,最先端技術よりも優れていることを示す。
関連論文リスト
- Exploiting Edge Features for Transferable Adversarial Attacks in Distributed Machine Learning [54.26807397329468]
この研究は、分散ディープラーニングシステムにおいて、これまで見過ごされていた脆弱性を探究する。
中間的特徴をインターセプトする敵は、依然として深刻な脅威となる可能性がある。
本稿では,分散環境に特化して設計されたエクスプロイト戦略を提案する。
論文 参考訳(メタデータ) (2025-07-09T20:09:00Z) - An Attentive Graph Agent for Topology-Adaptive Cyber Defence [1.0812794909131096]
我々は,ネットワーク状態を有向グラフとして符号化するCyber Operations Research Gym(CybORG)環境のカスタムバージョンを開発する。
我々は、ノード、エッジ、グローバル機能を処理するために、グラフ注意ネットワーク(GAT)アーキテクチャを使用し、その出力を強化学習におけるポリシー勾配手法と互換性に適応させる。
我々は,シミュレーション中に予期せぬ接続が発生した場合でも,低レベル指向グラフ観測を用いてGAT防御ポリシーを訓練できることを実証した。
論文 参考訳(メタデータ) (2025-01-24T18:22:37Z) - Entity-based Reinforcement Learning for Autonomous Cyber Defence [0.22499166814992438]
自律的なサイバー防衛の鍵となる課題は、防御エージェントが様々なネットワークトポロジや構成をまたいで一般化する能力を確保することである。
深層強化学習への標準的アプローチは、一定の大きさの観測と行動空間を期待する。
自律型サイバー防衛では、訓練対象と異なるネットワークトポロジを持つ環境に一般化するエージェントを開発することが困難になる。
論文 参考訳(メタデータ) (2024-10-23T08:04:12Z) - Dissecting Adversarial Robustness of Multimodal LM Agents [70.2077308846307]
我々は、VisualWebArena上に現実的な脅威モデルを用いて、200の敵タスクと評価スクリプトを手動で作成する。
我々は,クロボックスフロンティアLMを用いた最新のエージェントを,リフレクションやツリーサーチを行うエージェントを含む,壊すことに成功している。
AREを使用して、新しいコンポーネントの追加に伴うロバスト性の変化を厳格に評価しています。
論文 参考訳(メタデータ) (2024-06-18T17:32:48Z) - Decentralized Adversarial Training over Graphs [44.03711922549992]
近年、敵攻撃に対する機械学習モデルの脆弱性が注目されている。
マルチエージェントシステムのための分散逆数フレームワークを開発する。
論文 参考訳(メタデータ) (2023-03-23T15:05:16Z) - Graph Neural Networks for Decentralized Multi-Agent Perimeter Defense [111.9039128130633]
我々は,防御者の地域認識とコミュニケーショングラフから行動へのマッピングを学習する模倣学習フレームワークを開発した。
学習ネットワークの性能を実証するために、異なるチームサイズと構成のシナリオで周辺防衛ゲームを実行します。
論文 参考訳(メタデータ) (2023-01-23T19:35:59Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。