論文の概要: Specification and Enforcement of Activity Dependency Policies using XACML
- arxiv url: http://arxiv.org/abs/2403.10092v1
- Date: Fri, 15 Mar 2024 08:12:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 17:59:52.073592
- Title: Specification and Enforcement of Activity Dependency Policies using XACML
- Title(参考訳): XACMLを用いたアクティビティ依存ポリシーの仕様と施行
- Authors: Tanjila Mawla, Maanak Gupta, Ravi Sandhu,
- Abstract要約: 異なるアクティビティ間の依存関係は、お互いの実行に影響を与え、制限します。
ACACモデルでは、要求されたアクティビティを制御するための決定パラメータとして、"D"と表記されるアクティビティ依存が考慮されている。
本稿では,広く使用されているeXtensible Access Control Language (XACML) を用いて,アクティビティ依存ポリシーを規定するポリシーフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The evolving smart and interconnected systems are designed to operate with minimal human intervention. Devices within these smart systems often engage in prolonged operations based on sensor data and contextual factors. Recently, an Activity-Centric Access Control (ACAC) model has been introduced to regulate these prolonged operations, referred to as activities, which undergo state changes over extended duration of time. Dependencies among different activities can influence and restrict the execution of one another, necessitating active and real-time monitoring of the dependencies between activities to prevent security violation. In the ACAC model, the activity dependencies, denoted as "D", is considered as a decision parameter for controlling a requested activity. These dependencies must be evaluated throughout all phases of an activity's life cycle. To ensure the consistency of access control rules across diverse domains and applications, a standard policy language is essential. We propose a policy framework adapting the widely-used eXtensible Access Control Markup Language (XACML) , referred to as $\mathrm{XACML_{AD}}$, to specify the activity dependency policies. This work involves extending the syntax and semantics of XACML by introducing new elements to check dependent activities' states and handle state updates on dependent activities. In addition to the language extension, we present the enforcement architecture and data flow model of evaluating policies for activity dependencies. The integration of the proposed $\mathrm{XACML_{AD}}$ policy framework and the enforcement of the policies supports dependency evaluation, necessary updates and continuous enforcement of policies to control an activity throughout its life cycle. We implement the enforcement architecture exploiting the $\mathrm{XACML_{AD}}$ policy framework and discuss the performance evaluation results.
- Abstract(参考訳): 進化するスマートで相互接続されたシステムは、人間の介入を最小限に抑えて動作するように設計されている。
これらのスマートシステム内のデバイスは、センサーデータとコンテキスト要素に基づいて長時間の操作を行うことが多い。
近年,活動中心アクセス制御 (ACAC) モデルが導入され,長期にわたる状態変化を制御している。
異なるアクティビティ間の依存関係は、セキュリティ違反を防ぐためにアクティビティ間の依存関係をアクティブかつリアルタイムに監視する必要があるため、お互いの実行に影響を与えて制限する可能性がある。
ACACモデルでは、要求されたアクティビティを制御するための決定パラメータとして、"D"と表記されるアクティビティ依存が考慮されている。
これらの依存関係は、アクティビティのライフサイクルのすべてのフェーズを通じて評価されなければなりません。
さまざまなドメインやアプリケーションにまたがるアクセス制御ルールの整合性を確保するためには、標準ポリシー言語が不可欠である。
本稿では、広く使われているeXtensible Access Control Markup Language (XACML) を $\mathrm{XACML_{AD}}$ として適用し、アクティビティ依存ポリシーを規定するポリシーフレームワークを提案する。
この作業には、依存するアクティビティの状態をチェックし、依存するアクティビティの状態を処理するための新しい要素を導入することで、XACMLの構文とセマンティクスを拡張することが含まれる。
言語拡張に加えて、アクティビティ依存のポリシーを評価するための実行アーキテクチャとデータフローモデルも提示する。
提案された$\mathrm{XACML_{AD}}$ポリシーフレームワークの統合とポリシーの実施は、依存性の評価、必要な更新、ライフサイクルを通してアクティビティを制御するポリシーの継続的な実施をサポートする。
我々は、$\mathrm{XACML_{AD}}$ポリシーフレームワークを利用した実行アーキテクチャを実装し、性能評価結果について議論する。
関連論文リスト
- Executable Code Actions Elicit Better LLM Agents [76.95566120678787]
この研究は、Pythonコードを使用して、Large Language Model(LLM)エージェントのアクションを統一されたアクション空間(CodeAct)に統合することを提案する。
Pythonインタプリタと統合されたCodeActは、コードアクションを実行し、事前アクションを動的に修正したり、マルチターンインタラクションを通じて新しい観察に新しいアクションを発行することができる。
CodeActのパフォーマンス向上は、解釈可能なコードを実行し、自然言語を使ってユーザとコラボレーションすることで、環境と対話するオープンソースのLLMエージェントを構築する動機となります。
論文 参考訳(メタデータ) (2024-02-01T21:38:58Z) - Latent Exploration for Reinforcement Learning [87.42776741119653]
強化学習では、エージェントは環境を探索し、相互作用することでポリシーを学ぶ。
LATent TIme-Correlated Exploration (Lattice)を提案する。
論文 参考訳(メタデータ) (2023-05-31T17:40:43Z) - Distributed-Training-and-Execution Multi-Agent Reinforcement Learning
for Power Control in HetNet [48.96004919910818]
We propose a multi-agent Deep reinforcement learning (MADRL) based power control scheme for the HetNet。
エージェント間の協調を促進するために,MADRLシステムのためのペナルティベースQラーニング(PQL)アルゴリズムを開発した。
このように、エージェントのポリシーは、他のエージェントによってより容易に学習でき、より効率的なコラボレーションプロセスをもたらす。
論文 参考訳(メタデータ) (2022-12-15T17:01:56Z) - Multi-Asset Closed-Loop Reservoir Management Using Deep Reinforcement
Learning [0.0]
我々は、様々な数の井戸を持つ複数の資産のためのCLRMフレームワークを開発する。
我々は、深層強化学習を用いて、考慮すべきすべての資産に適用可能な単一のグローバルコントロールポリシーを訓練する。
数値実験により、グローバルコントロールポリシは、各アセットごとに個別に訓練されたコントロールポリシとほぼ同一の2次元および3次元のケースに対して、客観的関数値を提供することが示された。
論文 参考訳(メタデータ) (2022-07-21T09:12:03Z) - PAMMELA: Policy Administration Methodology using Machine Learning [1.1744028458220428]
PAMMELAは機械学習を利用した政策管理手法である。
同様の組織で現在実施されているポリシーのルールを学習することで、新しいポリシーを生成する。
PAMMELAは、政策強化のために、既存のルールから集めた知識に基づいて、新しいルールを推測することができる。
論文 参考訳(メタデータ) (2021-11-13T07:05:22Z) - Offline Reinforcement Learning with Implicit Q-Learning [85.62618088890787]
現行のオフライン強化学習手法では、トレーニング中に見つからない行動の価値を問い合わせて、ポリシーを改善する必要がある。
本稿では,データセット外の動作を評価する必要のないオフラインRL手法を提案する。
この方法により、学習したポリシーは、一般化によってデータの最良の振る舞いを大幅に改善することができる。
論文 参考訳(メタデータ) (2021-10-12T17:05:05Z) - Goal-Conditioned Reinforcement Learning with Imagined Subgoals [89.67840168694259]
我々は、複雑なタスクの学習を容易にするために、想像上のサブゴールをポリシー学習に組み込むことを提案する。
想像上のサブゴールは、政策と批判を同時に訓練する独立したハイレベルな政策によって予測される。
複雑なロボットナビゲーションと操作タスクに対する我々のアプローチを評価し、既存の手法よりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2021-07-01T15:30:59Z) - Modeling Multi-Label Action Dependencies for Temporal Action
Localization [53.53490517832068]
実世界のビデオには、アクションクラス間の固有の関係を持つ多くの複雑なアクションが含まれている。
非発生ビデオにおける時間的行動の局在化のタスクのためのこれらの行動関係をモデル化する注意に基づくアーキテクチャを提案する。
マルチラベルアクションローカリゼーションベンチマークの最先端の方法よりもパフォーマンスが向上しました。
論文 参考訳(メタデータ) (2021-03-04T13:37:28Z) - Verifiable Planning in Expected Reward Multichain MDPs [20.456052208569115]
エージェントの意思決定方針を導出する定常計画問題について検討する。
提案プログラムに対する最適解が、厳密な行動保証を伴う定常的な政策をもたらすことを証明した。
論文 参考訳(メタデータ) (2020-12-03T18:54:24Z) - Deliberative Acting, Online Planning and Learning with Hierarchical
Operational Models [5.597986898418404]
AI研究では、アクションの計画は通常、アクションの結果として起こる可能性のあることを抽象的に特定するアクションの記述モデルを使用してきた。
計画されたアクションの実行には、リッチな計算制御構造とクローズドループオンライン意思決定を使用する運用モデルが必要である。
我々は、計画と行動の両方が同じ運用モデルを使用する統合された行動計画システムを実装している。
論文 参考訳(メタデータ) (2020-10-02T14:50:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。