論文の概要: Causality, Responsibility and Blame in Team Plans
- arxiv url: http://arxiv.org/abs/2005.10297v1
- Date: Wed, 20 May 2020 18:21:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 05:47:56.006681
- Title: Causality, Responsibility and Blame in Team Plans
- Title(参考訳): チーム計画における因果関係,責任,責任
- Authors: Natasha Alechina, Joseph Y. Halpern, and Brian Logan
- Abstract要約: チーム計画が構造方程式の観点でどのように表現できるかを示す。
次に、Halpern [2015] が導入した因果関係の定義と、Cockler と Halpern [2004] が導入した責任と責任の程度を適用して、障害の原因となったエージェントを決定する。
- 参考スコア(独自算出の注目度): 24.99901958667372
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many objectives can be achieved (or may be achieved more effectively) only by
a group of agents executing a team plan. If a team plan fails, it is often of
interest to determine what caused the failure, the degree of responsibility of
each agent for the failure, and the degree of blame attached to each agent. We
show how team plans can be represented in terms of structural equations, and
then apply the definitions of causality introduced by Halpern [2015] and degree
of responsibility and blame introduced by Chockler and Halpern [2004] to
determine the agent(s) who caused the failure and what their degree of
responsibility/blame is. We also prove new results on the complexity of
computing causality and degree of responsibility and blame, showing that they
can be determined in polynomial time for many team plans of interest.
- Abstract(参考訳): 多くの目的を達成できる(あるいはより効果的に達成できる)のは、チームプランを実行するエージェントのグループのみである。
チームの計画が失敗した場合、失敗の原因、失敗に対する各エージェントの責任の程度、各エージェントに付随する責任の程度を決定することは、しばしば関心の対象になります。
続いて,halpern [2015] が導入した因果関係の定義とchockler と halpern [2004] が導入した責任と責任の程度を適用し,失敗の原因とその責任/ブレードの程度を決定する。
また、計算因果関係の複雑さと責任度と責任度に関する新たな結果が証明され、多くのチーム計画において多項式時間で決定できることが示される。
関連論文リスト
- Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Measuring Responsibility in Multi-Agent Systems [1.5883812630616518]
マルチエージェントプランニングにおける責任の定量的尺度のファミリーを紹介する。
行動と責任の確率を3つの指標でリンクすることで、特定の結果のエージェントに責任を割り当てます。
エントロピーに基づく責任測定は、時間の経過とともに結果の因果責任特性を捉えた最初のものである。
論文 参考訳(メタデータ) (2024-10-31T18:45:34Z) - Responsibility in a Multi-Value Strategic Setting [12.143925288392166]
責任はマルチエージェントシステムにおいて重要な概念であり、安全で信頼性があり倫理的なAIを作成する。
マルチエージェント・マルチバリュー設定における責任帰属モデルを提案する。
責任の考慮は、エージェントがその価値に沿った戦略を選択するのにどのように役立つかを示す。
論文 参考訳(メタデータ) (2024-10-22T17:51:13Z) - Agent-Oriented Planning in Multi-Agent Systems [54.429028104022066]
本稿では,高速なタスク分解とアロケーションプロセスを活用するマルチエージェントシステムにおけるエージェント指向計画のための新しいフレームワークを提案する。
提案フレームワークにフィードバックループを組み込んで,そのような問題解決プロセスの有効性と堅牢性をさらに向上させる。
論文 参考訳(メタデータ) (2024-10-03T04:07:51Z) - KnowAgent: Knowledge-Augmented Planning for LLM-Based Agents [52.348929737851165]
大規模言語モデル(LLM)は複雑な推論タスクにおいて大きな可能性を証明していますが、より高度な課題に取り組むには不十分です。
この不適切さは、主に言語エージェントのアクション知識が組み込まれていないことに起因する。
我々は、明示的な行動知識を取り入れることで、LLMの計画能力を高めるために設計された新しいアプローチであるKnowAgentを紹介する。
論文 参考訳(メタデータ) (2024-03-05T16:39:12Z) - On Catastrophic Inheritance of Large Foundation Models [51.41727422011327]
大ファンデーションモデル(LFM)は素晴らしいパフォーマンスを誇示している。しかし、彼らの神話的および解釈されていないポテンシャルについて大きな懸念が持ち上がっている。
我々は, LFMに深く根ざした「破滅的継承」という, 無視された問題を特定することを提案する。
この問題の背景にある課題を議論し、事前学習と下流適応の両方からLFMの破滅的な継承を理解するためのフレームワークであるUIMを提案する。
論文 参考訳(メタデータ) (2024-02-02T21:21:55Z) - Anticipating Responsibility in Multiagent Planning [9.686474898346392]
責任予測(Responsibility Precipation)は、個々のエージェントのアクションが特定の結果に責任を負う可能性があるかどうかを決定するプロセスである。
これは、エージェントが検討する計画における責任を期待できるように、マルチエージェントの計画設定で使用できる。
論文 参考訳(メタデータ) (2023-07-31T13:58:49Z) - Adaptation and Communication in Human-Robot Teaming to Handle
Discrepancies in Agents' Beliefs about Plans [13.637799815698559]
我々はモンテカルロ木探索に基づくオンライン実行アルゴリズムを提案し,その動作を計画する。
私たちのエージェントは、共有されたメンタルモデルを保証することなく、チームで作業するための装備がより優れていることを示しています。
論文 参考訳(メタデータ) (2023-07-07T03:05:34Z) - Formalizing the Problem of Side Effect Regularization [81.97441214404247]
本稿では,補助ゲームフレームワークを用いたサイドエフェクト正規化のための公式な基準を提案する。
これらのゲームでは、エージェントは部分的に観測可能なマルコフ決定プロセスを解決する。
このPOMDPは、エージェントが将来的なタスクをこなす能力と、プロキシ報酬を交換することで解決されることを示す。
論文 参考訳(メタデータ) (2022-06-23T16:36:13Z) - Coach-assisted Multi-Agent Reinforcement Learning Framework for
Unexpected Crashed Agents [120.91291581594773]
本稿では,予期せぬクラッシュを伴う協調型マルチエージェント強化学習システムの公式な定式化について述べる。
本稿では,教師支援型多エージェント強化学習フレームワークを提案する。
私たちの知る限りでは、この研究はマルチエージェントシステムにおける予期せぬクラッシュを初めて研究したものです。
論文 参考訳(メタデータ) (2022-03-16T08:22:45Z) - Collaborative Human-Agent Planning for Resilience [5.2123460114614435]
実行時に線形時間論理(LTL)を用いてエージェントに知識を提供することで,エージェントと協調できるかどうかを検討する。
我々は,計画立案者が制限のある状況に対する基本計画案を24名提示し,これらの制限に対する回避策を参加者に求めた。
その結果, 参加者の制約により, 計画の期待リターンが10%向上した。
論文 参考訳(メタデータ) (2021-04-29T03:21:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。