論文の概要: Adaptation and Communication in Human-Robot Teaming to Handle
Discrepancies in Agents' Beliefs about Plans
- arxiv url: http://arxiv.org/abs/2307.03362v1
- Date: Fri, 7 Jul 2023 03:05:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-10 13:39:58.297649
- Title: Adaptation and Communication in Human-Robot Teaming to Handle
Discrepancies in Agents' Beliefs about Plans
- Title(参考訳): エージェントの計画に対する信念の相違に対処するロボットチームにおける適応とコミュニケーション
- Authors: Yuening Zhang, Brian C. Williams
- Abstract要約: 我々はモンテカルロ木探索に基づくオンライン実行アルゴリズムを提案し,その動作を計画する。
私たちのエージェントは、共有されたメンタルモデルを保証することなく、チームで作業するための装備がより優れていることを示しています。
- 参考スコア(独自算出の注目度): 13.637799815698559
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When agents collaborate on a task, it is important that they have some shared
mental model of the task routines -- the set of feasible plans towards
achieving the goals. However, in reality, situations often arise that such a
shared mental model cannot be guaranteed, such as in ad-hoc teams where agents
may follow different conventions or when contingent constraints arise that only
some agents are aware of. Previous work on human-robot teaming has assumed that
the team has a set of shared routines, which breaks down in these situations.
In this work, we leverage epistemic logic to enable agents to understand the
discrepancy in each other's beliefs about feasible plans and dynamically plan
their actions to adapt or communicate to resolve the discrepancy. We propose a
formalism that extends conditional doxastic logic to describe knowledge bases
in order to explicitly represent agents' nested beliefs on the feasible plans
and state of execution. We provide an online execution algorithm based on Monte
Carlo Tree Search for the agent to plan its action, including communication
actions to explain the feasibility of plans, announce intent, and ask
questions. Finally, we evaluate the success rate and scalability of the
algorithm and show that our agent is better equipped to work in teams without
the guarantee of a shared mental model.
- Abstract(参考訳): エージェントがタスクで協力する場合には、タスクルーチンの共有されたメンタルモデル -- 目標を達成するための実行可能な計画 -- を持つことが重要です。
しかし、現実には、エージェントが異なる規約に従っている場合や、一部のエージェントだけが認識している予期しない制約が発生する場合など、そのような共有されたメンタルモデルが保証できないという状況が発生することが多い。
人間のロボットチームに関するこれまでの研究は、チームが共有ルーチンのセットを持っていると仮定していた。
本研究は, 疫学的論理を利用して, エージェントが相互に実現可能な計画に関する信念の相違を理解し, その相違を解決するための行動の動的計画を可能にする。
条件付きドキサスティック論理を拡張し,知識ベースを記述し,実行可能な計画と実行状態についてエージェントのネスト化された信念を明示的に表現する形式論を提案する。
我々は,モンテカルロ木探索に基づくオンライン実行アルゴリズムを提案し,その動作を計画し,計画の実現可能性を説明し,意図を明らかにし,質問するコミュニケーション行動を含む。
最後に、アルゴリズムの成功率と拡張性を評価し、我々のエージェントが、共通のメンタルモデルの保証なしに、チームで働くことができることを示します。
関連論文リスト
- Ask-before-Plan: Proactive Language Agents for Real-World Planning [68.08024918064503]
プロアクティブエージェントプランニングでは、ユーザエージェントの会話とエージェント環境のインタラクションに基づいて、言語エージェントが明確化のニーズを予測する必要がある。
本稿では,明確化,実行,計画の3つのエージェントからなる新しいマルチエージェントフレームワーク,Clarification-Execution-Planning(textttCEP)を提案する。
論文 参考訳(メタデータ) (2024-06-18T14:07:28Z) - Anticipate & Collab: Data-driven Task Anticipation and Knowledge-driven Planning for Human-robot Collaboration [13.631341660350028]
日々の生活活動において人間を支援するエージェントは、今後の課題を予測してより効果的に協力することができる。
データ駆動型手法はタスク予測、計画、関連する問題の最先端を表現しているが、これらの手法は資源不足と不透明である。
本稿では,人間とロボットのコラボレーションに向けたこれまでの取り組みを大幅に拡張するフレームワークであるDaTAPlanについて述べる。
論文 参考訳(メタデータ) (2024-04-04T16:52:48Z) - Pragmatic Instruction Following and Goal Assistance via Cooperative
Language-Guided Inverse Planning [52.91457780361305]
本稿では,協調型言語誘導逆計画探索(CLIPS)を紹介する。
我々のエージェントは、協力的なプランナーとして人間をモデル化し、アシスタントに共同計画を伝える。
2つの協調計画領域(ドア,キー&ジェム,バーチャルホーム)におけるこれらの機能の評価
論文 参考訳(メタデータ) (2024-02-27T23:06:53Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Anticipating Responsibility in Multiagent Planning [9.686474898346392]
責任予測(Responsibility Precipation)は、個々のエージェントのアクションが特定の結果に責任を負う可能性があるかどうかを決定するプロセスである。
これは、エージェントが検討する計画における責任を期待できるように、マルチエージェントの計画設定で使用できる。
論文 参考訳(メタデータ) (2023-07-31T13:58:49Z) - Inferring the Goals of Communicating Agents from Actions and
Instructions [47.5816320484482]
本稿では,あるエージェント,プリンシパルが,その共有計画に関する自然言語指示を他のエージェント,アシスタントに伝達できるような協力チームのモデルを提案する。
3人目のオブザーバが、アクションや指示からマルチモーダルな逆計画を通じて、チームの目標を推測する方法を示します。
我々は,マルチエージェントグリッドワールドにおける人間の目標推定と比較し,モデルの推定が人間の判断と密接に相関していることを見出した。
論文 参考訳(メタデータ) (2023-06-28T13:43:46Z) - Robust Planning for Human-Robot Joint Tasks with Explicit Reasoning on
Human Mental State [2.8246074016493457]
我々は,人間ロボットチームが達成するための既知の目的を持った共有タスクを与えられる,人間に意識したタスク計画問題を考える。
近年のアプローチでは、ロボットが両方のエージェント(共有された)タスクを計画する独立した合理的エージェントのチームとしてそれをモデル化している。
本稿では,実行時の可観測性規約をモデル化し,使用するための新しいアプローチについて述べる。
論文 参考訳(メタデータ) (2022-10-17T09:21:00Z) - Efficient Multi-agent Epistemic Planning: Teaching Planners About Nested
Belief [27.524600740450126]
我々は, 一つのエージェントの観点から, ネストされた信念, 非同質なエージェント, 共同表現観察, あるいはあるエージェントが別のエージェントであるかのように推論する能力を含む, 目標と行動の可能性を秘めている。
提案手法は,複数エージェントのネストされた信念を含む計画課題に,十分に確立された自動計画分野を適用するための重要なステップである。
論文 参考訳(メタデータ) (2021-10-06T03:24:01Z) - Collaborative Human-Agent Planning for Resilience [5.2123460114614435]
実行時に線形時間論理(LTL)を用いてエージェントに知識を提供することで,エージェントと協調できるかどうかを検討する。
我々は,計画立案者が制限のある状況に対する基本計画案を24名提示し,これらの制限に対する回避策を参加者に求めた。
その結果, 参加者の制約により, 計画の期待リターンが10%向上した。
論文 参考訳(メタデータ) (2021-04-29T03:21:31Z) - Too many cooks: Bayesian inference for coordinating multi-agent
collaboration [55.330547895131986]
協調には、エージェントが行動を調整する必要がある。
人間が協力する能力の根底にあるのは、他人を行動させる隠された精神状態を予測する能力である。
これらの能力を備えた分散型マルチエージェント学習機構であるベイズデリゲーションを開発した。
論文 参考訳(メタデータ) (2020-03-26T07:43:13Z) - Model-based Reinforcement Learning for Decentralized Multiagent
Rendezvous [66.6895109554163]
目標を他のエージェントと整合させる人間の能力の下にあるのは、他人の意図を予測し、自分たちの計画を積極的に更新する能力である。
分散型マルチエージェントレンデブーのためのモデルに基づく強化学習手法である階層型予測計画(HPP)を提案する。
論文 参考訳(メタデータ) (2020-03-15T19:49:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。