論文の概要: Penalization Framework For Autonomous Agents Using Answer Set
Programming
- arxiv url: http://arxiv.org/abs/2309.04487v1
- Date: Wed, 30 Aug 2023 09:09:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-17 14:07:09.674310
- Title: Penalization Framework For Autonomous Agents Using Answer Set
Programming
- Title(参考訳): Answer Set Programming を用いた自律エージェントの罰則化フレームワーク
- Authors: Vineel S. K. Tummala
- Abstract要約: 本稿では,変化する環境における権限・義務ポリシーに従わない知的エージェントに対する罰則を強制するための枠組みを提案する。
枠組みは、計画上の罰則を表現し、推論するために提案され、認可と義務ポリシーに対するコンプライアンスのレベルに基づいてエージェントの行為を罰するアルゴリズムが提案されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a framework for enforcing penalties on intelligent agents
that do not comply with authorization or obligation policies in a changing
environment. A framework is proposed to represent and reason about penalties in
plans, and an algorithm is proposed to penalize an agent's actions based on
their level of compliance with respect to authorization and obligation
policies. Being aware of penalties an agent can choose a plan with a minimal
total penalty, unless there is an emergency goal like saving a human's life.
The paper concludes that this framework can reprimand insubordinate agents.
- Abstract(参考訳): 本稿では,変化する環境における権限・義務ポリシーに従わない知的エージェントに対する罰則を強制するための枠組みを提案する。
計画中のペナルティを表現・推論するためにフレームワークが提案され、認可と義務ポリシーに関するコンプライアンスのレベルに基づいてエージェントのアクションをペナルティ化するアルゴリズムが提案されている。
エージェントは罰則に気付いて、人間の命を救えるような緊急の目標がない限り、最小限の罰則で計画を選ぶことができる。
論文は、このフレームワークはエージェントを非従属化することができると結論付けている。
関連論文リスト
- Formal Ethical Obligations in Reinforcement Learning Agents: Verification and Policy Updates [0.0]
設計者は、エージェントがすべきこと、それが実際に起きていることとどのように衝突するか、そして競合を取り除くためにポリシーをどう修正するかを、自動的に判断するツールが必要です。
我々は、設計時にこの推論を可能にするために、新しいデオン論理、期待されるアクト・ユーティタリアンデオン論理を提案する。
報酬レベルで働くアプローチとは異なり、論理レベルで働くことはトレードオフの透明性を高める。
論文 参考訳(メタデータ) (2024-07-31T20:21:15Z) - Exterior Penalty Policy Optimization with Penalty Metric Network under Constraints [52.37099916582462]
制約強化学習(CRL:Constrained Reinforcement Learning)では、エージェントが制約を満たしながら最適なポリシーを学習するために環境を探索する。
我々は,刑罰科目ネットワーク(PMN)が生み出す適応的な罰則を持つ,理論的に保証された刑罰関数法(Exterior Penalty Policy Optimization (EPO))を提案する。
PMNは様々な制約違反に適切に対応し、効率的な制約満足度と安全な探索を可能にする。
論文 参考訳(メタデータ) (2024-07-22T10:57:32Z) - Ask-before-Plan: Proactive Language Agents for Real-World Planning [68.08024918064503]
プロアクティブエージェントプランニングでは、ユーザエージェントの会話とエージェント環境のインタラクションに基づいて、言語エージェントが明確化のニーズを予測する必要がある。
本稿では,明確化,実行,計画の3つのエージェントからなる新しいマルチエージェントフレームワーク,Clarification-Execution-Planning(textttCEP)を提案する。
論文 参考訳(メタデータ) (2024-06-18T14:07:28Z) - Anticipating Responsibility in Multiagent Planning [9.686474898346392]
責任予測(Responsibility Precipation)は、個々のエージェントのアクションが特定の結果に責任を負う可能性があるかどうかを決定するプロセスである。
これは、エージェントが検討する計画における責任を期待できるように、マルチエージェントの計画設定で使用できる。
論文 参考訳(メタデータ) (2023-07-31T13:58:49Z) - Adaptation and Communication in Human-Robot Teaming to Handle
Discrepancies in Agents' Beliefs about Plans [13.637799815698559]
我々はモンテカルロ木探索に基づくオンライン実行アルゴリズムを提案し,その動作を計画する。
私たちのエージェントは、共有されたメンタルモデルを保証することなく、チームで作業するための装備がより優れていることを示しています。
論文 参考訳(メタデータ) (2023-07-07T03:05:34Z) - Explainable Abuse Detection as Intent Classification and Slot Filling [66.80201541759409]
我々は、システムがデータ検査だけで乱用を構成する事象を確実に学習できるという非現実的な期待を捨て、政策対応による悪用検出の概念を導入する。
目的分類とスロットフィリングのためのアーキテクチャは、モデル決定の根拠を提供しながら、悪用検出にどのように使用できるかを示す。
論文 参考訳(メタデータ) (2022-10-06T03:33:30Z) - Formalizing the Problem of Side Effect Regularization [81.97441214404247]
本稿では,補助ゲームフレームワークを用いたサイドエフェクト正規化のための公式な基準を提案する。
これらのゲームでは、エージェントは部分的に観測可能なマルコフ決定プロセスを解決する。
このPOMDPは、エージェントが将来的なタスクをこなす能力と、プロキシ報酬を交換することで解決されることを示す。
論文 参考訳(メタデータ) (2022-06-23T16:36:13Z) - Reinforcement Learning Guided by Provable Normative Compliance [0.0]
強化学習(Reinforcement Learning, RL)は、自律エージェントの安全、倫理、法的行動のためのツールとして約束されている。
我々は多目的RL(MORL)を用いて、侵害を避けるという倫理的目的と非倫理的目的とのバランスをとる。
提案手法は,MORL手法の多重性に有効であることを示すとともに,割り当てる刑罰の規模に関係なく有効であることを示す。
論文 参考訳(メタデータ) (2022-03-30T13:10:55Z) - Policy Regularization for Legible Behavior [0.0]
強化学習では、一般的に、エージェントのメカニズムに関する洞察を提供することを意味する。
本論文は,エージェントの正当性に着目した説明可能な計画文献手法から借用する。
我々の定式化において、正当性によって導入された決定境界は、エージェントのポリシーが他のポリシーでも高い可能性を持つアクションを返す州に影響を与える。
論文 参考訳(メタデータ) (2022-03-08T10:55:46Z) - Interpretable Reinforcement Learning with Multilevel Subgoal Discovery [77.34726150561087]
離散環境のための新しい強化学習モデルを提案する。
モデルでは、エージェントは確率的ルールの形で環境に関する情報を学習する。
学習には報酬関数は不要であり、エージェントは達成するための第一の目標のみを与える必要がある。
論文 参考訳(メタデータ) (2022-02-15T14:04:44Z) - Modelling Multi-Agent Epistemic Planning in ASP [66.76082318001976]
本稿では,マルチショット・アンサー・セット・プログラミング・ベース・プランナの実装について述べる。
本稿は, アドホックなエピステミック状態表現とASPソルバの効率を生かしたプランナーが, 文献から収集したベンチマークに対して, 競合的な性能を示すことを示す。
論文 参考訳(メタデータ) (2020-08-07T06:35:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。