論文の概要: Act for Your Duties but Maintain Your Rights
- arxiv url: http://arxiv.org/abs/2302.03384v1
- Date: Tue, 7 Feb 2023 10:44:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-08 16:42:33.374975
- Title: Act for Your Duties but Maintain Your Rights
- Title(参考訳): 義務に関する法律と権利の維持
- Authors: Shufang Zhu, Giuseppe De Giacomo
- Abstract要約: 我々は、知的エージェントは権利、すなわちエージェント自身が果たすことができるタスクも備えるべきであると主張する。
代理人は、その職務のために行動しながら、これらの権利を維持することができるべきである。
- 参考スコア(独自算出の注目度): 30.2453047838943
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most of the synthesis literature has focused on studying how to synthesize a
strategy to fulfill a task. This task is a duty for the agent. In this paper,
we argue that intelligent agents should also be equipped with rights, that is,
tasks that the agent itself can choose to fulfill (e.g., the right of
recharging the battery). The agent should be able to maintain these rights
while acting for its duties. We study this issue in the context of LTLf
synthesis: we give duties and rights in terms of LTLf specifications, and
synthesize a suitable strategy to achieve the duties that can be modified
on-the-fly to achieve also the rights, if the agent chooses to do so. We show
that handling rights does not make synthesis substantially more difficult,
although it requires a more sophisticated solution concept than standard LTLf
synthesis. We also extend our results to the case in which further duties and
rights are given to the agent while already executing.
- Abstract(参考訳): 合成文献の多くは、タスクを達成するための戦略の合成方法の研究に重点を置いている。
この仕事はエージェントの義務です。
本稿では,知的なエージェントには,エージェント自身が満足できるタスク(例えば,電池を充電する権利)も備えるべきであると主張する。
代理人は職務遂行中にこれらの権利を維持できなければならない。
我々は、LTLf合成の文脈において、この問題について研究し、LTLf仕様の観点で義務と権利を与え、エージェントがそうすることを選択した場合、オンザフライで修正可能な義務を達成するための適切な戦略を合成する。
標準ltlf合成よりも高度な解の概念を必要とするが, 権利の取り扱いは合成を著しく困難にしないことを示す。
我々はまた、既に実行されている間、エージェントにさらなる義務と権利が与えられる場合にも結果を拡張します。
関連論文リスト
- Gödel Agent: A Self-Referential Agent Framework for Recursive Self-Improvement [117.94654815220404]
G"odel AgentはG"odelマシンにインスパイアされた自己進化型フレームワークである。
G"odel Agentは、パフォーマンス、効率、一般化性において手作業によるエージェントを上回る、継続的な自己改善を実現することができる。
論文 参考訳(メタデータ) (2024-10-06T10:49:40Z) - Interpretable Responsibility Sharing as a Heuristic for Task and Motion Planning [5.331052581441265]
解釈可能な責任共有(IRS)は、人間構築環境と固有のバイアスを活用することにより、家庭内ロボットの計画効率を高める。
このアプローチは、補助オブジェクトがタスクの責任を実施エージェントと共有する新しい概念である責任共有(Responsibility Sharing, RS)に根ざしている。
IRSは、タスク実行に必要な労力を削減し、全体的な意思決定プロセスを強化することで、従来の方法よりも大幅に優れています。
論文 参考訳(メタデータ) (2024-09-09T13:15:53Z) - Formal Ethical Obligations in Reinforcement Learning Agents: Verification and Policy Updates [0.0]
設計者は、エージェントがすべきこと、それが実際に起きていることとどのように衝突するか、そして競合を取り除くためにポリシーをどう修正するかを、自動的に判断するツールが必要です。
我々は、設計時にこの推論を可能にするために、新しいデオン論理、期待されるアクト・ユーティタリアンデオン論理を提案する。
報酬レベルで働くアプローチとは異なり、論理レベルで働くことはトレードオフの透明性を高める。
論文 参考訳(メタデータ) (2024-07-31T20:21:15Z) - Cooperate or Collapse: Emergence of Sustainable Cooperation in a Society of LLM Agents [101.17919953243107]
GovSimは、大規模言語モデル(LLM)における戦略的相互作用と協調的意思決定を研究するために設計された生成シミュレーションプラットフォームである。
最強のLSMエージェントを除く全てのエージェントは、GovSimの持続的均衡を達成することができず、生存率は54%以下である。
道徳的思考の理論である「大学化」に基づく推論を活用するエージェントは、持続可能性を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-04-25T15:59:16Z) - When does In-context Learning Fall Short and Why? A Study on
Specification-Heavy Tasks [54.71034943526973]
In-context Learning (ICL)は、大規模言語モデル(LLM)のデフォルトメソッドとなっている。
ICLは、複雑で広範囲なタスク仕様を持つタスクである、仕様の重いタスクを処理できないことが分かりました。
我々は、コンテキストを具体的に理解できないこと、タスクスキーマが人間と理解できないこと、長文理解が不十分であること、の3つの主な理由を識別する。
論文 参考訳(メタデータ) (2023-11-15T14:26:30Z) - Symbolic LTLf Best-Effort Synthesis [27.106071554421664]
有限トレース上での線形時相論理における最善合成のための記号的アプローチを考案し比較する。
これらのアプローチは、同じ基本的なコンポーネントに基づいていますが、これらのコンポーネントの組み合わせの仕方を変えます。
論文 参考訳(メタデータ) (2023-08-29T10:00:33Z) - Large Language Models as Tax Attorneys: A Case Study in Legal
Capabilities Emergence [5.07013500385659]
本稿では,税法の適用におけるLarge Language Models(LLM)の機能について考察する。
実験では,その後のOpenAIモデルリリースにおけるパフォーマンスの向上とともに,新たな法的理解能力を実証した。
発見は、特に拡張の促進と正しい法的文書と組み合わせることで、高いレベルの精度で実行可能であるが、専門家の税務弁護士レベルではまだ実行できないことを示している。
論文 参考訳(メタデータ) (2023-06-12T12:40:48Z) - DANLI: Deliberative Agent for Following Natural Language Instructions [9.825482203664963]
本稿では、過去の経験から得られた神経的・象徴的表現に基づいて推論と計画を適用するニューロシンボリック・リベレティブ・エージェントを提案する。
TEAChベンチマークでは,リアクティブベースラインよりも70%以上の改善が達成されている。
論文 参考訳(メタデータ) (2022-10-22T15:57:01Z) - Decomposed Prompting: A Modular Approach for Solving Complex Tasks [55.42850359286304]
本稿では,より単純なサブタスクに分解することで,複雑なタスクを解くための分解プロンプトを提案する。
このモジュール構造は、各プロンプトを特定のサブタスクに最適化することを可能にする。
Decomposed Promptingの柔軟性とモジュラリティは、数発のプロンプトで先行作業より優れていることを示す。
論文 参考訳(メタデータ) (2022-10-05T17:28:20Z) - Modelling Multi-Agent Epistemic Planning in ASP [66.76082318001976]
本稿では,マルチショット・アンサー・セット・プログラミング・ベース・プランナの実装について述べる。
本稿は, アドホックなエピステミック状態表現とASPソルバの効率を生かしたプランナーが, 文献から収集したベンチマークに対して, 競合的な性能を示すことを示す。
論文 参考訳(メタデータ) (2020-08-07T06:35:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。