論文の概要: An ASP Framework for the Refinement of Authorization and Obligation
Policies
- arxiv url: http://arxiv.org/abs/2305.13190v1
- Date: Mon, 22 May 2023 16:23:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 14:26:11.004363
- Title: An ASP Framework for the Refinement of Authorization and Obligation
Policies
- Title(参考訳): 認可及び義務ポリシーの精細化のためのaspフレームワーク
- Authors: Daniela Inclezan
- Abstract要約: 我々は、政策仕様のためのGerlfondとLoboのAOPL言語でエンコードできる権限と義務ポリシーに焦点を当てる。
本研究では、ある状態において実行される行為に対して、ポリシーに一貫性がない、不明確でない、曖昧な文を検知する枠組みを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a framework for assisting policy authors in refining
and improving their policies. In particular, we focus on authorization and
obligation policies that can be encoded in Gelfond and Lobo's AOPL language for
policy specification. We propose a framework that detects the statements that
make a policy inconsistent, underspecified, or ambiguous with respect to an
action being executed in a given state. We also give attention to issues that
arise at the intersection of authorization and obligation policies, for
instance when the policy requires an unauthorized action to be executed. The
framework is encoded in Answer Set Programming. Under consideration for
acceptance in TPLP.
- Abstract(参考訳): 本稿では,政策作成者による政策の精錬・改善を支援する枠組みを提案する。
特に、ポリシー仕様のためのgelfondとloboのaopl言語でエンコードできる認可と義務ポリシーにフォーカスしています。
我々は、ある状態において実行されるアクションに関して、ポリシーの不整合、過小指定、あるいは曖昧にするステートメントを検出するフレームワークを提案する。
また、認可及び義務政策の交わりで発生する問題、例えば、ポリシーが実行するために無許可のアクションを必要とする場合にも留意する。
フレームワークはAnswer Set Programmingにエンコードされている。
TPLPの受容についての検討
関連論文リスト
- AI Policy Projector: Grounding LLM Policy Design in Iterative Mapmaking [34.86215885364356]
地図作成にインスパイアされたAIポリシー設計プロセスを導入する。
Policy Projector は LLM 分類とステアリングを用いたインタラクティブなポリシオーサリングをサポートする。
AIの安全性の専門家12名による評価では、ポリシーデザイナが問題のあるモデル行動に対処するのに役立つ。
論文 参考訳(メタデータ) (2024-09-26T18:34:16Z) - Formal Ethical Obligations in Reinforcement Learning Agents: Verification and Policy Updates [0.0]
設計者は、エージェントがすべきこと、それが実際に起きていることとどのように衝突するか、そして競合を取り除くためにポリシーをどう修正するかを、自動的に判断するツールが必要です。
我々は、設計時にこの推論を可能にするために、新しいデオン論理、期待されるアクト・ユーティタリアンデオン論理を提案する。
報酬レベルで働くアプローチとは異なり、論理レベルで働くことはトレードオフの透明性を高める。
論文 参考訳(メタデータ) (2024-07-31T20:21:15Z) - Towards an Enforceable GDPR Specification [49.1574468325115]
プライバシ・バイ・デザイン(PbD)は、EUなどの現代的なプライバシー規制によって規定されている。
PbDを実現する1つの新しい技術は強制(RE)である
法律規定の正式な仕様を作成するための一連の要件と反復的な方法論を提示する。
論文 参考訳(メタデータ) (2024-02-27T09:38:51Z) - Supported Trust Region Optimization for Offline Reinforcement Learning [59.43508325943592]
本稿では,行動方針の支持範囲内で制約された政策を用いて信頼地域政策の最適化を行う,信頼地域最適化(STR)を提案する。
近似やサンプリング誤差を仮定すると、STRはデータセットの最適サポート制約ポリシーに収束するまで厳密なポリシー改善を保証する。
論文 参考訳(メタデータ) (2023-11-15T13:16:16Z) - Exploring Consequences of Privacy Policies with Narrative Generation via
Answer Set Programming [0.0]
プライバシポリシの形式化にAnswer Set Programming(ASP)を使用するフレームワークを提案する。
ASP.NETは、エンドユーザがアクターの観点からポリシーの結果を前方にシミュレートすることを可能にする。
本稿では,健康保険の可搬性と説明責任法(Health Insurance Portability and Accountability Act)の事例を通じて,様々な方法でシステムを利用する方法を紹介する。
論文 参考訳(メタデータ) (2022-12-13T16:44:46Z) - Bounded Robustness in Reinforcement Learning via Lexicographic
Objectives [54.00072722686121]
強化学習における政策の堅牢性は、いかなるコストでも望ましいものではないかもしれない。
本研究では,任意の観測ノイズに対して,政策が最大限に頑健になる方法について検討する。
本稿では,どのような政策アルゴリズムにも適用可能なロバストネス誘導方式を提案する。
論文 参考訳(メタデータ) (2022-09-30T08:53:18Z) - Boolean Decision Rules for Reinforcement Learning Policy Summarisation [16.969788244589388]
我々は、溶岩グリッドワールドを用いたエージェントのポリシーのルールベースの要約を作成する。
本稿では、このルールベースモデルによって生成されたルールを、エージェントのポリシーに課される制約として利用することにより、RLエージェントのポリシーに安全性を導入する可能性について論じる。
論文 参考訳(メタデータ) (2022-07-18T14:51:24Z) - Policy Regularization for Legible Behavior [0.0]
強化学習では、一般的に、エージェントのメカニズムに関する洞察を提供することを意味する。
本論文は,エージェントの正当性に着目した説明可能な計画文献手法から借用する。
我々の定式化において、正当性によって導入された決定境界は、エージェントのポリシーが他のポリシーでも高い可能性を持つアクションを返す州に影響を与える。
論文 参考訳(メタデータ) (2022-03-08T10:55:46Z) - Goal-Conditioned Reinforcement Learning with Imagined Subgoals [89.67840168694259]
我々は、複雑なタスクの学習を容易にするために、想像上のサブゴールをポリシー学習に組み込むことを提案する。
想像上のサブゴールは、政策と批判を同時に訓練する独立したハイレベルな政策によって予測される。
複雑なロボットナビゲーションと操作タスクに対する我々のアプローチを評価し、既存の手法よりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2021-07-01T15:30:59Z) - BRPO: Batch Residual Policy Optimization [79.53696635382592]
バッチ強化学習では、学習したポリシーが行動(データ生成)ポリシーに近いように制約されることがよくある。
本稿では,学習方針の逸脱が国家の行動に依存した残留政策を提案する。
我々は,ポリシーと許容偏差の両方を学習し,政策性能の低い境界を共同で最大化する新しいRL法BRPOを導出する。
論文 参考訳(メタデータ) (2020-02-08T01:59:33Z) - Preventing Imitation Learning with Adversarial Policy Ensembles [79.81807680370677]
模倣学習は、政策プライバシに関する問題を引き起こす専門家を観察することで、ポリシーを再現することができる。
プロプライエタリなポリシーをクローンする外部オブザーバに対して、どうすれば保護できるのか?
新しい強化学習フレームワークを導入し、準最適政策のアンサンブルを訓練する。
論文 参考訳(メタデータ) (2020-01-31T01:57:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。