論文の概要: Reinforcement Learning-Driven Adaptation Chains: A Robust Framework for Multi-Cloud Workflow Security
- arxiv url: http://arxiv.org/abs/2501.06305v1
- Date: Fri, 10 Jan 2025 19:04:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:29:14.487689
- Title: Reinforcement Learning-Driven Adaptation Chains: A Robust Framework for Multi-Cloud Workflow Security
- Title(参考訳): Reinforcement Learning-Driven Adaptation Chains: マルチクラウドワークフローセキュリティのためのロバストフレームワーク
- Authors: Nafiseh Soveizi, Dimka Karastoyanova,
- Abstract要約: クラウドコンピューティングは、データ集約型および計算集約型タスクを管理するための重要なソリューションとして登場した。
文学における大きなギャップの1つは、セキュリティ違反に対処するための堅牢で柔軟な手段の欠如である。
本稿では,Reinforcement Learning (RL) を利用して適応連鎖を定式化し,セキュリティ違反に効果的に対応する革新的なアプローチを提案する。
- 参考スコア(独自算出の注目度): 2.186901738997927
- License:
- Abstract: Cloud computing has emerged as a crucial solution for managing data- and compute-intensive workflows, offering scalability to address dynamic demands. However, security concerns persist, especially for workflows involving sensitive data and tasks. One of the main gaps in the literature is the lack of robust and flexible measures for reacting to these security violations. To address this, we propose an innovative approach leveraging Reinforcement Learning (RL) to formulate adaptation chains, responding effectively to security violations within cloud-based workflows. These chains consist of sequences of adaptation actions tailored to attack characteristics, workflow dependencies, and user-defined requirements. Unlike conventional single-task adaptations, adaptation chains provide a comprehensive mitigation strategy by taking into account both control and data dependencies between tasks, thereby accommodating conflicting objectives effectively. Moreover, our RL-based approach uses insights from past responses to mitigate uncertainties associated with adaptation costs. We evaluate the method using our jBPM and Cloudsim Plus based implementation and compare the impact of selected adaptation chains on workflows with the single adaptation approach. Results demonstrate that the adaptation chain approach outperforms in terms of total adaptation cost, offering resilience and adaptability against security threats.
- Abstract(参考訳): クラウドコンピューティングは、データと計算集約的なワークフローを管理するための重要なソリューションとして現れ、動的な要求に対処するためのスケーラビリティを提供する。
しかし、特に機密データやタスクを含むワークフローに関しては、セキュリティ上の懸念が続いている。
文学における大きなギャップの1つは、これらのセキュリティ違反に対処するための堅牢で柔軟な手段の欠如である。
そこで本研究では,Reinforcement Learning (RL) を利用して適応チェーンを定式化し,クラウドベースのワークフロー内のセキュリティ違反に効果的に対応する,革新的なアプローチを提案する。
これらのチェーンは、特性やワークフロー依存性、ユーザ定義要件を攻撃するために調整された、適応アクションのシーケンスで構成されている。
従来のシングルタスク適応とは異なり、アダプションチェーンはタスク間の制御とデータ依存関係の両方を考慮して包括的な緩和戦略を提供し、競合する目的を効果的に調整する。
さらに、我々のRLベースのアプローチでは、過去の応答からの洞察を用いて、適応コストに関連する不確実性を軽減する。
我々はjBPMとCloudsim Plusをベースとした実装を用いて手法を評価し、選択した適応チェーンがワークフローに与える影響を単一の適応アプローチと比較した。
その結果、アダプティブ・チェーンのアプローチは、セキュリティの脅威に対するレジリエンスと適応性を提供し、総適応コストの点で優れていた。
関連論文リスト
- Solving The Dynamic Volatility Fitting Problem: A Deep Reinforcement Learning Approach [0.0]
我々は,Deep Deterministic Policy Gradient (DDPG) とSoft Actor Critic (SAC) の変種が,少なくとも標準適合アルゴリズムと同程度の精度で実現できることを示す。
複雑な目的関数を扱うのに強化学習フレームワークが適切である理由を解説する。
論文 参考訳(メタデータ) (2024-10-15T17:10:54Z) - Reinforcement Learning-based Receding Horizon Control using Adaptive Control Barrier Functions for Safety-Critical Systems [14.166970599802324]
最適制御法は、安全クリティカルな問題に対する解決策を提供するが、容易に難解になる。
モデル予測制御を利用した強化学習に基づく回帰水平制御手法を提案する。
我々は、コネクテッド・アンド・オートマチック・ビークルにおける自動マージ制御問題に適用し、本手法の有効性を検証した。
論文 参考訳(メタデータ) (2024-03-26T02:49:08Z) - Enhancing Security in Federated Learning through Adaptive
Consensus-Based Model Update Validation [2.28438857884398]
本稿では,ラベルフリップ攻撃に対して,FL(Federated Learning)システムを構築するための高度なアプローチを提案する。
本稿では,適応的しきい値設定機構と統合されたコンセンサスに基づく検証プロセスを提案する。
以上の結果から,FLシステムのレジリエンスを高め,ラベルフリップ攻撃の顕著な緩和効果が示唆された。
論文 参考訳(メタデータ) (2024-03-05T20:54:56Z) - Resilient Constrained Reinforcement Learning [87.4374430686956]
本稿では,複数の制約仕様を事前に特定しない制約付き強化学習(RL)のクラスについて検討する。
報酬訓練目標と制約満足度との間に不明確なトレードオフがあるため、適切な制約仕様を特定することは困難である。
我々は、ポリシーと制約仕様を一緒に検索する新しい制約付きRLアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-28T18:28:23Z) - Amortizing intractable inference in large language models [56.92471123778389]
難治性後部分布のサンプルとして, 償却ベイズ推定を用いる。
我々は,LLMファインチューニングの分散マッチングパラダイムが,最大習熟の代替となることを実証的に実証した。
重要な応用として、チェーン・オブ・ソート推論を潜在変数モデリング問題として解釈する。
論文 参考訳(メタデータ) (2023-10-06T16:36:08Z) - Enhancing Workflow Security in Multi-Cloud Environments through
Monitoring and Adaptation upon Cloud Service and Network Security Violations [2.5835347022640254]
ワークフロー実行中のセキュリティ違反を検出するために,クラウドサービスやネットワークの監視に重点を置くアプローチを提案する。
提案手法は,検出手順の性能と,選択した適応がワークフローに与える影響に基づいて評価する。
論文 参考訳(メタデータ) (2023-10-03T08:33:46Z) - Online Safety Property Collection and Refinement for Safe Deep
Reinforcement Learning in Mapless Navigation [79.89605349842569]
オンラインプロパティのコレクション・リファインメント(CROP)フレームワークをトレーニング時にプロパティを設計するために導入する。
CROPは、安全でない相互作用を識別し、安全特性を形成するためにコストシグナルを使用する。
本手法をいくつかのロボットマップレスナビゲーションタスクで評価し,CROPで計算した違反量によって,従来のSafe DRL手法よりも高いリターンと低いリターンが得られることを示す。
論文 参考訳(メタデータ) (2023-02-13T21:19:36Z) - Safe Policy Improvement in Constrained Markov Decision Processes [10.518340300810504]
本稿では,形式的要件の集合からの報酬形成と安全なポリシー更新という2つの課題を解くことで,合成問題の解決法を提案する。
前者に対しては,タスク仕様に準拠したスカラー報酬信号を定義する自動報酬生成手法を提案する。
後者では,高信頼度保証を伴う安全な方法でポリシーが改善されることを保証するアルゴリズムを導入する。
論文 参考訳(メタデータ) (2022-10-20T13:29:32Z) - Log Barriers for Safe Black-box Optimization with Application to Safe
Reinforcement Learning [72.97229770329214]
本稿では,学習時の安全性維持が不可欠である高次元非線形最適化問題に対する一般的なアプローチを提案する。
LBSGDと呼ばれるアプローチは、慎重に選択されたステップサイズで対数障壁近似を適用することに基づいている。
安全強化学習における政策課題の違反を最小限に抑えるためのアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-21T11:14:47Z) - Lifelong Unsupervised Domain Adaptive Person Re-identification with
Coordinated Anti-forgetting and Adaptation [127.6168183074427]
本稿では,LUDA (Lifelong Unsupervised Domain Adaptive) という新たなタスクを提案する。
これは、モデルがターゲット環境のラベル付けされていないデータに継続的に適応する必要があるため、難しい。
我々は、CLUDA-ReIDと呼ばれるこのタスクのための効果的なスキームを設計し、そこでは、アンチフォージェッティングが適応と調和して調整される。
論文 参考訳(メタデータ) (2021-12-13T13:19:45Z) - Distributed Adaptive Learning Under Communication Constraints [54.22472738551687]
本研究では,コミュニケーション制約下での運用を目的とした適応型分散学習戦略について検討する。
我々は,ストリーミングデータの連続的な観察から,オンライン最適化問題を解決しなければならないエージェントのネットワークを考える。
論文 参考訳(メタデータ) (2021-12-03T19:23:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。