論文の概要: Quantifying Policy Administration Cost in an Active Learning Framework
- arxiv url: http://arxiv.org/abs/2401.00086v1
- Date: Fri, 29 Dec 2023 22:12:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-03 18:51:34.044138
- Title: Quantifying Policy Administration Cost in an Active Learning Framework
- Title(参考訳): アクティブラーニングフレームワークにおける政策管理コストの定量化
- Authors: Si Zhang and Philip W. L. Fong
- Abstract要約: 本稿では,政策管理のための計算モデルを提案する。
適切に設計されたアクセス制御モデルは、組織の規模が大きくなると管理コストが禁じられないように、このような変化を予測しなければならない。
- 参考スコア(独自算出の注目度): 4.106460421493345
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a computational model for policy administration. As an
organization evolves, new users and resources are gradually placed under the
mediation of the access control model. Each time such new entities are added,
the policy administrator must deliberate on how the access control policy shall
be revised to reflect the new reality. A well-designed access control model
must anticipate such changes so that the administration cost does not become
prohibitive when the organization scales up. Unfortunately, past Access Control
research does not offer a formal way to quantify the cost of policy
administration. In this work, we propose to model ongoing policy administration
in an active learning framework. Administration cost can be quantified in terms
of query complexity. We demonstrate the utility of this approach by applying it
to the evolution of protection domains. We also modelled different policy
administration strategies in our framework. This allowed us to formally
demonstrate that domain-based policies have a cost advantage over access
control matrices because of the use of heuristic reasoning when the policy
evolves. To the best of our knowledge, this is the first work to employ an
active learning framework to study the cost of policy deliberation and
demonstrate the cost advantage of heuristic policy administration.
- Abstract(参考訳): 本稿では,政策管理のための計算モデルを提案する。
組織が進化するにつれて、新しいユーザとリソースはアクセス制御モデルの仲介の下に徐々に置かれる。
こうした新たなエンティティを追加する度に、ポリシー管理者は、新しい現実を反映してアクセス制御ポリシーをどう修正するかを熟考しなければならない。
適切に設計されたアクセス制御モデルは、組織の規模が大きくなると管理コストが禁じられないように、このような変化を予測しなければならない。
残念ながら、過去のアクセス制御の研究は、政策管理のコストを定量化する公式な方法を提供していない。
本研究では,現在進行中の政策管理を活発な学習フレームワークでモデル化することを提案する。
管理コストはクエリの複雑さの観点から定量化できる。
保護領域の進化に応用することで,このアプローチの有用性を実証する。
また、さまざまな政策管理戦略をフレームワークでモデル化しました。
これにより、ポリシーが進化するときにヒューリスティックな推論を使用することにより、ドメインベースのポリシーがアクセス制御行列よりもコスト面で有利であることを正式に示せるようになりました。
我々の知る限り、これは、政策検討のコストを調査し、ヒューリスティックな政策管理のコスト優位性を示すために、アクティブな学習フレームワークを使用する最初の試みである。
関連論文リスト
- IOB: Integrating Optimization Transfer and Behavior Transfer for
Multi-Policy Reuse [50.90781542323258]
強化学習(RL)エージェントは、ソースポリシーからの知識を関連する目標タスクに転送することができる。
従来手法では,階層的なポリシやソースポリシの値関数の見積など,新たなコンポーネントが導入されていた。
本稿では,余分なコンポーネントを訓練せずにソースポリシーを選択する新しい転送RL法を提案する。
論文 参考訳(メタデータ) (2023-08-14T09:22:35Z) - Enabling Efficient, Reliable Real-World Reinforcement Learning with
Approximate Physics-Based Models [10.472792899267365]
我々は,実世界のデータを用いたロボット学習のための,効率的かつ信頼性の高いポリシー最適化戦略の開発に重点を置いている。
本稿では,新しい政策勾配に基づく政策最適化フレームワークを提案する。
提案手法では,実世界のデータの数分で,正確な制御戦略を確実に学習できることが示されている。
論文 参考訳(メタデータ) (2023-07-16T22:36:36Z) - Constructing a Good Behavior Basis for Transfer using Generalized Policy
Updates [63.58053355357644]
そこで我々は,優れた政策集合を学習する問題を考察し,組み合わせることで,目に見えない多種多様な強化学習タスクを解くことができることを示した。
理論的には、独立したポリシーのセットと呼ぶ、特定の多様なポリシーのセットにアクセスできることによって、ハイレベルなパフォーマンスを即時に達成できることが示される。
論文 参考訳(メタデータ) (2021-12-30T12:20:46Z) - Policy Search for Model Predictive Control with Application to Agile
Drone Flight [56.24908013905407]
MPCのためのポリシ・フォー・モデル・予測制御フレームワークを提案する。
具体的には、パラメータ化コントローラとしてMPCを定式化し、パラメータ化の難しい決定変数を高レベルポリシーとして表現する。
シミュレーションと実環境の両方において,我々の制御器が堅牢かつリアルタイムに制御性能を発揮することを示す実験を行った。
論文 参考訳(メタデータ) (2021-12-07T17:39:24Z) - PAMMELA: Policy Administration Methodology using Machine Learning [1.1744028458220428]
PAMMELAは機械学習を利用した政策管理手法である。
同様の組織で現在実施されているポリシーのルールを学習することで、新しいポリシーを生成する。
PAMMELAは、政策強化のために、既存のルールから集めた知識に基づいて、新しいルールを推測することができる。
論文 参考訳(メタデータ) (2021-11-13T07:05:22Z) - Goal-Conditioned Reinforcement Learning with Imagined Subgoals [89.67840168694259]
我々は、複雑なタスクの学習を容易にするために、想像上のサブゴールをポリシー学習に組み込むことを提案する。
想像上のサブゴールは、政策と批判を同時に訓練する独立したハイレベルな政策によって予測される。
複雑なロボットナビゲーションと操作タスクに対する我々のアプローチを評価し、既存の手法よりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2021-07-01T15:30:59Z) - Reinforcement Learning [36.664136621546575]
強化学習(Reinforcement Learning, RL)は適応制御のための一般的なフレームワークであり、多くの領域で効率的であることが証明されている。
本章では、RLの基本的枠組みを示し、優れた政策を学ぶために開発された2つのアプローチのメインファミリーを思い出す。
論文 参考訳(メタデータ) (2020-05-29T06:53:29Z) - An Automatic Attribute Based Access Control Policy Extraction from
Access Logs [5.142415132534397]
属性ベースのアクセス制御(ABAC)モデルは、複雑なシステムや動的システムの認証要求に対処するための、より柔軟なアプローチを提供する。
本稿では,システムへのアクセスログからABACポリシールールを自動的に学習し,ポリシー開発プロセスを簡素化する手法を提案する。
論文 参考訳(メタデータ) (2020-03-16T15:08:54Z) - Policy Evaluation Networks [50.53250641051648]
我々は,簡潔な埋め込みにおいて重要なポリシー情報を保持できる,スケーラブルで差別化可能なフィンガープリント機構を導入する。
実験の結果、これらの3つの要素を組み合わせることで、トレーニングデータを生成するものよりも優れたポリシーを作成できることが示された。
論文 参考訳(メタデータ) (2020-02-26T23:00:27Z) - Efficient Deep Reinforcement Learning via Adaptive Policy Transfer [50.51637231309424]
強化学習(RL)を促進するための政策伝達フレームワーク(PTF)の提案
我々のフレームワークは、いつ、いつ、どのソースポリシーがターゲットポリシーの再利用に最適なのか、いつそれを終了するかを学習する。
実験結果から,学習過程を著しく加速し,最先端の政策伝達手法を超越していることが判明した。
論文 参考訳(メタデータ) (2020-02-19T07:30:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。