論文の概要: Network Defense is Not a Game
- arxiv url: http://arxiv.org/abs/2104.10262v1
- Date: Tue, 20 Apr 2021 21:52:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-22 14:19:07.656335
- Title: Network Defense is Not a Game
- Title(参考訳): ネットワーク防衛はゲームではない
- Authors: Andres Molina-Markham, Ransom K. Winder, Ahmad Ridley
- Abstract要約: 研究は、人工知能を人間のオペレーターがネットワークを守る能力のスケールと拡張に応用することを目指している。
我々の立場は、ネットワーク・ディフェンスは不確実でおそらく漂流するルールを持つゲームの集合として特徴づけられる。
ネットワーク防御タスクをネットワーク環境の分布として定義することを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Research seeks to apply Artificial Intelligence (AI) to scale and extend the
capabilities of human operators to defend networks. A fundamental problem that
hinders the generalization of successful AI approaches -- i.e., beating humans
at playing games -- is that network defense cannot be defined as a single game
with a fixed set of rules. Our position is that network defense is better
characterized as a collection of games with uncertain and possibly drifting
rules. Hence, we propose to define network defense tasks as distributions of
network environments, to: (i) enable research to apply modern AI techniques,
such as unsupervised curriculum learning and reinforcement learning for network
defense; and, (ii) facilitate the design of well-defined challenges that can be
used to compare approaches for autonomous cyberdefense.
To demonstrate that an approach for autonomous network defense is practical
it is important to be able to reason about the boundaries of its applicability.
Hence, we need to be able to define network defense tasks that capture sets of
adversarial tactics, techniques, and procedures (TTPs); quality of service
(QoS) requirements; and TTPs available to defenders. Furthermore, the
abstractions to define these tasks must be extensible; must be backed by
well-defined semantics that allow us to reason about distributions of
environments; and should enable the generation of data and experiences from
which an agent can learn.
Our approach named Network Environment Design for Autonomous Cyberdefense
inspired the architecture of FARLAND, a Framework for Advanced Reinforcement
Learning for Autonomous Network Defense, which we use at MITRE to develop RL
network defenders that perform blue actions from the MITRE Shield matrix
against attackers with TTPs that drift from MITRE ATT&CK TTPs.
- Abstract(参考訳): 研究は、人工知能(AI)を人間のオペレーターがネットワークを守る能力を拡大し拡張することを目指している。
成功しているAIアプローチの一般化を妨げる根本的な問題は、人間をゲームで打ち負かすことであり、ネットワーク防御は一定のルールのセットを持つ単一のゲームとして定義できないことである。
我々の立場は、ネットワーク・ディフェンスは不確実でおそらく漂流するルールを持つゲームの集合として特徴づけられる。
そこで,ネットワーク防御タスクをネットワーク環境の分布として定義することを提案する。 (i) 教師なしカリキュラム学習や強化学習などの最新のAI技術をネットワーク防御に適用し, (ii) 自律型サイバー防御のアプローチを比較するために使用可能な,明確に定義された課題の設計を容易にする。
自律的ネットワーク防衛のアプローチが実用的であることを示すためには,その適用可能性の境界を判断することが重要である。
したがって、敵の戦術、技術、手順(TTP)、QoS(Quality of Service)要件、および防衛担当者が利用できるTPをキャプチャするネットワーク防御タスクを定義する必要がある。
さらに、これらのタスクを定義するための抽象化は拡張可能でなければならない;環境の分布を推論できる、明確に定義されたセマンティクスによって支援されなければならない;エージェントが学習できるデータと経験の生成を可能にする必要がある。
我々のアプローチは、自律サイバーディフェンスのためのネットワーク環境設計(Network Environment Design for Autonomous Cyberdefense)という、自律ネットワークディフェンスのための高度な強化学習フレームワークであるFARLANDのアーキテクチャにインスピレーションを与えました。
関連論文リスト
- Hierarchical Multi-agent Reinforcement Learning for Cyber Network Defense [7.967738380932909]
本稿では,サイバー防御タスクをネットワーク調査やホストリカバリといった特定のサブタスクに分解する階層的PPOアーキテクチャを提案する。
我々のアプローチは、ドメインの専門知識が強化されたPPOを使用して、各サブタスクのサブ政治を訓練することである。
これらのサブ政治は、複雑なネットワーク防御タスクを解決するためにそれらの選択を調整するマスターディフェンスポリシーによって活用される。
論文 参考訳(メタデータ) (2024-10-22T18:35:05Z) - Autonomous Network Defence using Reinforcement Learning [1.7249361224827533]
現実的なネットワーク防衛シナリオにおける自律エージェントの有効性について検討する。
新たな強化学習エージェントは、2つの先進的持続的脅威(APT)レッドエージェントによる連続的な攻撃を確実に防御できることを示す。
論文 参考訳(メタデータ) (2024-09-26T18:24:09Z) - Learning Cyber Defence Tactics from Scratch with Multi-Agent
Reinforcement Learning [4.796742432333795]
コンピュータネットワーク防衛の役割における知的エージェントのチームは、サイバーおよび運動的資産を保護するための有望な道を明らかにする可能性がある。
エージェントは、ホストベースの防衛シナリオにおける攻撃活動を共同で緩和する能力に基づいて評価される。
論文 参考訳(メタデータ) (2023-08-25T14:07:50Z) - Inroads into Autonomous Network Defence using Explained Reinforcement
Learning [0.5949779668853555]
本稿では,攻撃戦略の研究,防衛エージェントの設計,運用説明のためのエンド・ツー・エンド手法を提案する。
状態図、タスクの異なる部分でトレーニングされ、浅い階層で編成された深層強化学習エージェントを使用します。
評価の結果, 得られた設計は, 先行作業に比べ, 大幅な性能向上を実現していることがわかった。
論文 参考訳(メタデータ) (2023-06-15T17:53:14Z) - Graph Neural Networks for Decentralized Multi-Agent Perimeter Defense [111.9039128130633]
我々は,防御者の地域認識とコミュニケーショングラフから行動へのマッピングを学習する模倣学習フレームワークを開発した。
学習ネットワークの性能を実証するために、異なるチームサイズと構成のシナリオで周辺防衛ゲームを実行します。
論文 参考訳(メタデータ) (2023-01-23T19:35:59Z) - Learning Decentralized Strategies for a Perimeter Defense Game with
Graph Neural Networks [111.9039128130633]
グラフニューラルネットワークに基づく学習フレームワークを設計し、ディフェンダーのローカル認識と通信グラフからディフェンダーの行動へのマッピングを学習する。
提案するネットワークは,専門家の方針に近づき,より多くの侵入者を捕捉することで,他のベースラインアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-09-24T22:48:51Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Automating Privilege Escalation with Deep Reinforcement Learning [71.87228372303453]
本研究では,エージェントの訓練に深層強化学習を用いることで,悪意あるアクターの潜在的な脅威を実証する。
本稿では,最先端の強化学習アルゴリズムを用いて,局所的な特権エスカレーションを行うエージェントを提案する。
我々のエージェントは、実際の攻撃センサーデータを生成し、侵入検知システムの訓練と評価に利用できる。
論文 参考訳(メタデータ) (2021-10-04T12:20:46Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - HYDRA: Pruning Adversarially Robust Neural Networks [58.061681100058316]
ディープラーニングは、敵対的攻撃に対する堅牢性の欠如と、大規模なニューラルネットワークサイズという、2つの大きな課題に直面している。
そこで本稿では,頑健なトレーニング目標を意識したプルーニング手法を提案し,トレーニング目標にプルーンへの接続を探索させる。
HYDRAと題する我々の手法は,最先端のベニグニグニグニグニグニとロバストな精度で圧縮されたネットワークを同時に実現できることを実証する。
論文 参考訳(メタデータ) (2020-02-24T19:54:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。