論文の概要: Adaptive Security Policy Management in Cloud Environments Using Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2505.08837v1
- Date: Tue, 13 May 2025 06:34:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-15 21:44:09.250063
- Title: Adaptive Security Policy Management in Cloud Environments Using Reinforcement Learning
- Title(参考訳): 強化学習を用いたクラウド環境における適応型セキュリティポリシー管理
- Authors: Muhammad Saqib, Dipkumar Mehta, Fnu Yashu, Shubham Malhotra,
- Abstract要約: Amazon Web Services(AWS)のようなクラウド環境のセキュリティは複雑で動的である。
本稿では、強化学習(RL)を用いて動的に適応するセキュリティポリシー管理フレームワークを提案する。
- 参考スコア(独自算出の注目度): 1.0580574091217088
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The security of cloud environments, such as Amazon Web Services (AWS), is complex and dynamic. Static security policies have become inadequate as threats evolve and cloud resources exhibit elasticity [1]. This paper addresses the limitations of static policies by proposing a security policy management framework that uses reinforcement learning (RL) to adapt dynamically. Specifically, we employ deep reinforcement learning algorithms, including deep Q Networks and proximal policy optimization, enabling the learning and continuous adjustment of controls such as firewall rules and Identity and Access Management (IAM) policies. The proposed RL based solution leverages cloud telemetry data (AWS Cloud Trail logs, network traffic data, threat intelligence feeds) to continuously refine security policies, maximizing threat mitigation, and compliance while minimizing resource impact. Experimental results demonstrate that our adaptive RL based framework significantly outperforms static policies, achieving higher intrusion detection rates (92% compared to 82% for static policies) and substantially reducing incident detection and response times by 58%. In addition, it maintains high conformity with security requirements and efficient resource usage. These findings validate the effectiveness of adaptive reinforcement learning approaches in improving cloud security policy management.
- Abstract(参考訳): Amazon Web Services(AWS)のようなクラウド環境のセキュリティは複雑で動的です。
脅威が進化し、クラウドリソースが弾力性を示す[1]。
本稿では、強化学習(RL)を用いて動的に適応するセキュリティポリシー管理フレームワークを提案することにより、静的ポリシーの限界に対処する。
具体的には,ファイアウォールルールやIAM(Identity and Access Management)ポリシなどのコントロールの学習と継続的な調整を可能にする,深層Qネットワークと近近ポリシー最適化を含む深層強化学習アルゴリズムを採用する。
提案されたRLベースのソリューションは、クラウドテレメトリデータ(AWS Cloud Trailログ、ネットワークトラフィックデータ、脅威インテリジェンスフィード)を活用して、セキュリティポリシを継続的に洗練し、脅威軽減を最大化し、リソースへの影響を最小限に抑える。
その結果、我々の適応RLベースのフレームワークは静的ポリシーよりも優れており、侵入検出率が高い(静的ポリシーでは82%に比べて92%)、インシデント検出と応答時間を58%大幅に低減していることがわかった。
さらに、セキュリティ要件と効率的なリソース使用量との整合性も高い。
これらの結果は、クラウドセキュリティポリシー管理を改善するための適応型強化学習手法の有効性を検証した。
関連論文リスト
- Research on Enhancing Cloud Computing Network Security using Artificial Intelligence Algorithms [11.657154571216234]
クラウドコンピューティング環境は、セキュリティの脅威にますます弱い。
従来のセキュリティメカニズムは、ルールマッチングと特徴認識に基づいて、進化する攻撃戦略への適応に苦労する。
本稿では,ディープラーニングを利用して多層防御アーキテクチャを構築する適応型セキュリティ保護フレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-25T03:06:40Z) - Adaptive Cybersecurity: Dynamically Retrainable Firewalls for Real-Time Network Protection [4.169915659794567]
本研究は「動的にリトレーニング可能なファイアウォール」を紹介する。
トラフィックを検査する静的ルールに依存する従来のファイアウォールとは異なり、これらの先進的なシステムは機械学習アルゴリズムを活用して、ネットワークトラフィックパターンを動的に分析し、脅威を特定する。
また、パフォーマンスの改善、レイテンシの削減、リソース利用の最適化、Zero Trustや混在環境といった現在の概念とのインテグレーションの問題にも対処する戦略についても論じている。
論文 参考訳(メタデータ) (2025-01-14T00:04:35Z) - COIN: Chance-Constrained Imitation Learning for Uncertainty-aware
Adaptive Resource Oversubscription Policy [37.034543365623286]
不確実性が存在する場合に安全で堅牢な意思決定ポリシーを学ぶという課題に対処する。
従来の教師付き予測や予測モデルは適応ポリシーの学習には効果がない。
オンライン最適化や強化学習は、実際のシステムにデプロイすることが難しい。
論文 参考訳(メタデータ) (2024-01-13T11:43:25Z) - Safe Deep Policy Adaptation [7.2747306035142225]
強化学習(RL)に基づく政策適応は、汎用性と汎用性を提供するが、安全性と堅牢性に挑戦する。
政策適応と安全強化学習の課題を同時に解決する新しいRLおよび制御フレームワークであるSafeDPAを提案する。
我々は、SafeDPAの理論的安全性を保証し、学習エラーや余分な摂動に対するSafeDPAの堅牢性を示す。
論文 参考訳(メタデータ) (2023-10-08T00:32:59Z) - Safety Correction from Baseline: Towards the Risk-aware Policy in
Robotics via Dual-agent Reinforcement Learning [64.11013095004786]
本稿では,ベースラインと安全エージェントからなる二重エージェント型安全強化学習戦略を提案する。
このような分離されたフレームワークは、RLベースの制御に対して高い柔軟性、データ効率、リスク認識を可能にする。
提案手法は,難易度の高いロボットの移動・操作作業において,最先端の安全RLアルゴリズムより優れる。
論文 参考訳(メタデータ) (2022-12-14T03:11:25Z) - Safe Reinforcement Learning via Confidence-Based Filters [78.39359694273575]
我々は,標準的な強化学習技術を用いて学習した名目政策に対して,国家安全の制約を認定するための制御理論的アプローチを開発する。
我々は、正式な安全保証を提供し、我々のアプローチの有効性を実証的に実証する。
論文 参考訳(メタデータ) (2022-07-04T11:43:23Z) - A Regularized Implicit Policy for Offline Reinforcement Learning [54.7427227775581]
オフラインの強化学習は、環境とのさらなるインタラクションなしに、固定データセットから学習を可能にする。
フレキシブルだが十分に調整された完全実装ポリシーの学習を支援するフレームワークを提案する。
D4RLデータセットの実験とアブレーション研究により、我々のフレームワークとアルゴリズム設計の有効性が検証された。
論文 参考訳(メタデータ) (2022-02-19T20:22:04Z) - SAFER: Data-Efficient and Safe Reinforcement Learning via Skill
Acquisition [59.94644674087599]
安全制約下での複雑な制御タスクにおけるポリシー学習を高速化するアルゴリズムであるSAFEty skill pRiors (SAFER)を提案する。
オフラインデータセットでの原則的なトレーニングを通じて、SAFERは安全なプリミティブスキルの抽出を学ぶ。
推論段階では、SAFERで訓練されたポリシーは、安全なスキルを成功のポリシーに組み込むことを学ぶ。
論文 参考訳(メタデータ) (2022-02-10T05:43:41Z) - Multi-Objective SPIBB: Seldonian Offline Policy Improvement with Safety
Constraints in Finite MDPs [71.47895794305883]
オフライン強化学習環境における制約下での安全政策改善(SPI)の問題について検討する。
本稿では,異なる報酬信号に対するトレードオフを扱うアルゴリズムのユーザの好みを考慮した,このRL設定のためのSPIを提案する。
論文 参考訳(メタデータ) (2021-05-31T21:04:21Z) - MUSBO: Model-based Uncertainty Regularized and Sample Efficient Batch
Optimization for Deployment Constrained Reinforcement Learning [108.79676336281211]
データ収集とオンライン学習のための新しいポリシーの継続的展開はコスト非効率か非現実的かのどちらかである。
モデルベース不確実性正規化とサンプル効率的なバッチ最適化という新しいアルゴリズム学習フレームワークを提案する。
本フレームワークは,各デプロイメントの新規で高品質なサンプルを発見し,効率的なデータ収集を実現する。
論文 参考訳(メタデータ) (2021-02-23T01:30:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。