論文の概要: PoolFlip: A Multi-Agent Reinforcement Learning Security Environment for Cyber Defense
- arxiv url: http://arxiv.org/abs/2508.19488v1
- Date: Wed, 27 Aug 2025 00:18:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.45447
- Title: PoolFlip: A Multi-Agent Reinforcement Learning Security Environment for Cyber Defense
- Title(参考訳): PoolFlip:サイバー防衛のためのマルチエージェント強化学習セキュリティ環境
- Authors: Xavier Cadet, Simona Boboila, Sie Hendrata Dharmawan, Alina Oprea, Peter Chin,
- Abstract要約: FlipItゲームは、ディフェンダーと高度な敵との相互作用をモデル化するためのフレームワークを提供する。
FlipItでは、アタッカーとディフェンダーは基本的なアクションを実行し、コストを支払うことで共有リソースを制御する。
本稿では,FlipItゲームを拡張するマルチエージェントジム環境であるPoolFlipを紹介する。
- 参考スコア(独自算出の注目度): 8.817401748976375
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cyber defense requires automating defensive decision-making under stealthy, deceptive, and continuously evolving adversarial strategies. The FlipIt game provides a foundational framework for modeling interactions between a defender and an advanced adversary that compromises a system without being immediately detected. In FlipIt, the attacker and defender compete to control a shared resource by performing a Flip action and paying a cost. However, the existing FlipIt frameworks rely on a small number of heuristics or specialized learning techniques, which can lead to brittleness and the inability to adapt to new attacks. To address these limitations, we introduce PoolFlip, a multi-agent gym environment that extends the FlipIt game to allow efficient learning for attackers and defenders. Furthermore, we propose Flip-PSRO, a multi-agent reinforcement learning (MARL) approach that leverages population-based training to train defender agents equipped to generalize against a range of unknown, potentially adaptive opponents. Our empirical results suggest that Flip-PSRO defenders are $2\times$ more effective than baselines to generalize to a heuristic attack not exposed in training. In addition, our newly designed ownership-based utility functions ensure that Flip-PSRO defenders maintain a high level of control while optimizing performance.
- Abstract(参考訳): サイバー防衛は、ステルス性、偽り、そして継続的に進化する敵戦略の下での防衛的意思決定を自動化することを必要とする。
FlipItゲームは、ディフェンダーと先進的な敵との相互作用をモデル化するための基礎的なフレームワークを提供する。
FlipItでは、アタッカーとディフェンダーがFlipアクションを実行してコストを支払うことで共有リソースを制御する。
しかし、既存のFlipItフレームワークは少数のヒューリスティックや専門的な学習技術に依存しており、不安定さと新しい攻撃に適応できない可能性がある。
これらの制限に対処するために,FlipItゲームを拡張するマルチエージェントジム環境であるPoolFlipを導入する。
さらに,マルチエージェント強化学習(MARL)アプローチであるFlip-PSROを提案する。
実験の結果,Flip-PSROディフェンダーは,トレーニング中に露出しないヒューリスティックアタックに一般化するために,ベースラインよりも2ドル以上有効であることが示唆された。
さらに、Flip-PSROディフェンダが性能を最適化しながら高いレベルの制御を維持するように、新規に設計したオーナシップベースのユーティリティ機能を実現した。
関連論文リスト
- Chasing Moving Targets with Online Self-Play Reinforcement Learning for Safer Language Models [55.28518567702213]
従来の言語モデル(LM)の安全性アライメントは、リアクティブで非結合な手順に依存している。
このシーケンシャルなアプローチはミスマッチを生み出し、攻撃者は時代遅れの防御に過度に適合する一方、守備側は出現する脅威に常に遅れをとどめている。
我々は,攻撃者と防御エージェントが継続的なインタラクションを通じて共進化するオンラインセルフプレイ強化学習アルゴリズムであるSelf-RedTeamを提案する。
論文 参考訳(メタデータ) (2025-06-09T06:35:12Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Learning to Backdoor Federated Learning [9.046972927978997]
FL(Federated Learning)システムでは、悪意のある参加者がバックドアを集約されたモデルに簡単に埋め込むことができる。
一般的な強化学習に基づくバックドアアタックフレームワークを提案する。
我々のフレームワークは適応性と柔軟性があり、最先端の防御の下でも強力な攻撃性能と耐久性を実現する。
論文 参考訳(メタデータ) (2023-03-06T17:47:04Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Meta Federated Learning [57.52103907134841]
フェデレートラーニング(FL)は、時間的敵攻撃の訓練に弱い。
本稿では,メタフェデレーション学習(Meta Federated Learning, Meta-FL)を提案する。
論文 参考訳(メタデータ) (2021-02-10T16:48:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。