論文の概要: Causality, Responsibility and Blame in Team Plans
- arxiv url: http://arxiv.org/abs/2005.10297v1
- Date: Wed, 20 May 2020 18:21:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 05:47:56.006681
- Title: Causality, Responsibility and Blame in Team Plans
- Title(参考訳): チーム計画における因果関係,責任,責任
- Authors: Natasha Alechina, Joseph Y. Halpern, and Brian Logan
- Abstract要約: チーム計画が構造方程式の観点でどのように表現できるかを示す。
次に、Halpern [2015] が導入した因果関係の定義と、Cockler と Halpern [2004] が導入した責任と責任の程度を適用して、障害の原因となったエージェントを決定する。
- 参考スコア(独自算出の注目度): 24.99901958667372
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many objectives can be achieved (or may be achieved more effectively) only by
a group of agents executing a team plan. If a team plan fails, it is often of
interest to determine what caused the failure, the degree of responsibility of
each agent for the failure, and the degree of blame attached to each agent. We
show how team plans can be represented in terms of structural equations, and
then apply the definitions of causality introduced by Halpern [2015] and degree
of responsibility and blame introduced by Chockler and Halpern [2004] to
determine the agent(s) who caused the failure and what their degree of
responsibility/blame is. We also prove new results on the complexity of
computing causality and degree of responsibility and blame, showing that they
can be determined in polynomial time for many team plans of interest.
- Abstract(参考訳): 多くの目的を達成できる(あるいはより効果的に達成できる)のは、チームプランを実行するエージェントのグループのみである。
チームの計画が失敗した場合、失敗の原因、失敗に対する各エージェントの責任の程度、各エージェントに付随する責任の程度を決定することは、しばしば関心の対象になります。
続いて,halpern [2015] が導入した因果関係の定義とchockler と halpern [2004] が導入した責任と責任の程度を適用し,失敗の原因とその責任/ブレードの程度を決定する。
また、計算因果関係の複雑さと責任度と責任度に関する新たな結果が証明され、多くのチーム計画において多項式時間で決定できることが示される。
関連論文リスト
- KnowAgent: Knowledge-Augmented Planning for LLM-Based Agents [54.09074527006576]
大規模言語モデル(LLM)は複雑な推論タスクにおいて大きな可能性を証明していますが、より高度な課題に取り組むには不十分です。
この不適切さは、主に言語エージェントのアクション知識が組み込まれていないことに起因する。
我々は、明示的な行動知識を取り入れることで、LLMの計画能力を高めるために設計された新しいアプローチであるKnowAgentを紹介する。
論文 参考訳(メタデータ) (2024-03-05T16:39:12Z) - On Catastrophic Inheritance of Large Foundation Models [56.169678293678885]
大ファンデーションモデル(LFM)は素晴らしいパフォーマンスを誇示している。しかし、彼らの神話的および解釈されていないポテンシャルについて大きな懸念が持ち上がっている。
我々は, LFMに深く根ざした「破滅的継承」という, 無視された問題を特定することを提案する。
この問題の背景にある課題を議論し、事前学習と下流適応の両方からLFMの破滅的な継承を理解するためのフレームワークであるUIMを提案する。
論文 参考訳(メタデータ) (2024-02-02T21:21:55Z) - Unravelling Responsibility for AI [4.651940161506203]
本稿では「アクターAはOccurrence Oに責任を持つ」という三項の定式化を行い、Aのサブカテゴリの有効な組み合わせ、Aのサブカテゴリ、Oの責務、およびOを特定する。
これらの有効な組み合わせは、役割責任、因果責任、法的責任責任、道徳的責任の4つの感覚に分けられる。
目的は、これらの文字列が、異なるアクターが異なるアクターに責任を負う異なる方法を明確にし、明確にするための、規律にまたがる人々のための語彙を提供することである。
論文 参考訳(メタデータ) (2023-08-04T13:12:17Z) - Anticipating Responsibility in Multiagent Planning [9.686474898346392]
責任予測(Responsibility Precipation)は、個々のエージェントのアクションが特定の結果に責任を負う可能性があるかどうかを決定するプロセスである。
これは、エージェントが検討する計画における責任を期待できるように、マルチエージェントの計画設定で使用できる。
論文 参考訳(メタデータ) (2023-07-31T13:58:49Z) - Adaptation and Communication in Human-Robot Teaming to Handle
Discrepancies in Agents' Beliefs about Plans [13.637799815698559]
我々はモンテカルロ木探索に基づくオンライン実行アルゴリズムを提案し,その動作を計画する。
私たちのエージェントは、共有されたメンタルモデルを保証することなく、チームで作業するための装備がより優れていることを示しています。
論文 参考訳(メタデータ) (2023-07-07T03:05:34Z) - On the Complexity of Multi-Agent Decision Making: From Learning in Games
to Partial Monitoring [105.13668993076801]
マルチエージェント強化学習(MARL)理論における中心的な問題は、構造条件やアルゴリズムの原理がサンプル効率の学習保証につながるかを理解することである。
本稿では,複数のエージェントを用いた対話型意思決定のための一般的な枠組みとして,この問題について考察する。
マルチエージェント意思決定における統計的複雑性を特徴付けることは、単一エージェント決定の統計的複雑性を特徴付けることと等価であることを示す。
論文 参考訳(メタデータ) (2023-05-01T06:46:22Z) - Fault-Tolerant Offline Multi-Agent Path Planning [5.025654873456756]
本研究では,複数のエージェントが実行時にクラッシュする可能性のある新しいグラフパス計画問題について検討し,ワークスペースの一部をブロックする。
我々の設定では、エージェントは隣のクラッシュしたエージェントを検出し、実行時に後続のパスを変更することができる。その目的は、各エージェントに対して一連のパスを作成し、ルールを切り替えることであり、すべての正しいエージェントが衝突やデッドロックなしで目的地に到達することを保証することである。
論文 参考訳(メタデータ) (2022-11-25T05:58:32Z) - Formalizing the Problem of Side Effect Regularization [81.97441214404247]
本稿では,補助ゲームフレームワークを用いたサイドエフェクト正規化のための公式な基準を提案する。
これらのゲームでは、エージェントは部分的に観測可能なマルコフ決定プロセスを解決する。
このPOMDPは、エージェントが将来的なタスクをこなす能力と、プロキシ報酬を交換することで解決されることを示す。
論文 参考訳(メタデータ) (2022-06-23T16:36:13Z) - Coach-assisted Multi-Agent Reinforcement Learning Framework for
Unexpected Crashed Agents [120.91291581594773]
本稿では,予期せぬクラッシュを伴う協調型マルチエージェント強化学習システムの公式な定式化について述べる。
本稿では,教師支援型多エージェント強化学習フレームワークを提案する。
私たちの知る限りでは、この研究はマルチエージェントシステムにおける予期せぬクラッシュを初めて研究したものです。
論文 参考訳(メタデータ) (2022-03-16T08:22:45Z) - Collaborative Human-Agent Planning for Resilience [5.2123460114614435]
実行時に線形時間論理(LTL)を用いてエージェントに知識を提供することで,エージェントと協調できるかどうかを検討する。
我々は,計画立案者が制限のある状況に対する基本計画案を24名提示し,これらの制限に対する回避策を参加者に求めた。
その結果, 参加者の制約により, 計画の期待リターンが10%向上した。
論文 参考訳(メタデータ) (2021-04-29T03:21:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。