論文の概要: Towards Collaborative Plan Acquisition through Theory of Mind Modeling
in Situated Dialogue
- arxiv url: http://arxiv.org/abs/2305.11271v1
- Date: Thu, 18 May 2023 19:42:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-22 17:29:29.855345
- Title: Towards Collaborative Plan Acquisition through Theory of Mind Modeling
in Situated Dialogue
- Title(参考訳): 仮定対話におけるマインドモデリング理論による協調的プラン獲得に向けて
- Authors: Cristian-Paul Bara, Ziqiao Ma, Yingzhuo Yu, Julie Shah, Joyce Chai
- Abstract要約: 共同作業は、各パートナによる部分的なタスク知識と不完全な初期計画から始まることが多い。
本稿では,人間とエージェントが互いに学び,コミュニケーションを取ろうとする,協調的な計画獲得に向けた一歩を踏み出した。
エージェントが自分とパートナーのタスク知識の不足を、知覚と対話の豊富な履歴に基づいて予測するための新しい問題を定式化する。
- 参考スコア(独自算出の注目度): 10.233928711341825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Collaborative tasks often begin with partial task knowledge and incomplete
initial plans from each partner. To complete these tasks, agents need to engage
in situated communication with their partners and coordinate their partial
plans towards a complete plan to achieve a joint task goal. While such
collaboration seems effortless in a human-human team, it is highly challenging
for human-AI collaboration. To address this limitation, this paper takes a step
towards collaborative plan acquisition, where humans and agents strive to learn
and communicate with each other to acquire a complete plan for joint tasks.
Specifically, we formulate a novel problem for agents to predict the missing
task knowledge for themselves and for their partners based on rich perceptual
and dialogue history. We extend a situated dialogue benchmark for symmetric
collaborative tasks in a 3D blocks world and investigate computational
strategies for plan acquisition. Our empirical results suggest that predicting
the partner's missing knowledge is a more viable approach than predicting one's
own. We show that explicit modeling of the partner's dialogue moves and mental
states produces improved and more stable results than without. These results
provide insight for future AI agents that can predict what knowledge their
partner is missing and, therefore, can proactively communicate such information
to help their partner acquire such missing knowledge toward a common
understanding of joint tasks.
- Abstract(参考訳): 共同作業は、各パートナによる部分的なタスク知識と不完全な初期計画から始まることが多い。
これらのタスクを完了させるためには、エージェントはパートナーとの位置通信を行い、共通のタスク目標を達成するための完全な計画に向けて部分的な計画を調整する必要がある。
このようなコラボレーションは、人間とAIのコラボレーションにとって非常に難しいものです。
この制限に対処するため,人間とエージェントが相互に学習し,コミュニケーションし,共同作業のための完全な計画を取得するための共同計画獲得に向けて一歩踏み出した。
具体的には、エージェントが自分自身のタスク知識の不足を予測し、豊富な知覚と対話履歴に基づいてパートナーに対して新たな問題を定式化する。
3dブロック世界における対称協調作業のための位置対話ベンチマークを拡張し,計画獲得のための計算戦略を検討する。
実験の結果から,相手の知識の欠如を予測することは,相手自身の知識の予測よりも有効なアプローチであることが示唆された。
パートナーの対話行動と精神状態の明示的なモデリングは、無関係よりも改善され、より安定した結果をもたらすことを示す。
これらの結果は、パートナーが欠けている知識を予測できる将来のaiエージェントに洞察を与え、したがって、パートナーがこのような知識を身につけるのに役立つような情報を積極的に伝達し、共同タスクの共通理解に役立てることができる。
関連論文リスト
- Large Language Model-based Human-Agent Collaboration for Complex Task
Solving [94.3914058341565]
複雑なタスク解決のためのLarge Language Models(LLM)に基づくヒューマンエージェントコラボレーションの問題を紹介する。
Reinforcement Learning-based Human-Agent Collaboration method, ReHACを提案する。
このアプローチには、タスク解決プロセスにおける人間の介入の最も急進的な段階を決定するために設計されたポリシーモデルが含まれている。
論文 参考訳(メタデータ) (2024-02-20T11:03:36Z) - Adaptation and Communication in Human-Robot Teaming to Handle
Discrepancies in Agents' Beliefs about Plans [13.637799815698559]
我々はモンテカルロ木探索に基づくオンライン実行アルゴリズムを提案し,その動作を計画する。
私たちのエージェントは、共有されたメンタルモデルを保証することなく、チームで作業するための装備がより優れていることを示しています。
論文 参考訳(メタデータ) (2023-07-07T03:05:34Z) - Building Cooperative Embodied Agents Modularly with Large Language
Models [104.57849816689559]
本研究では, 分散制御, 生の知覚観察, コストのかかるコミュニケーション, 様々な実施環境下でインスタンス化された多目的タスクといった課題に対処する。
我々は,LLMの常識知識,推論能力,言語理解,テキスト生成能力を活用し,認知に触発されたモジュラーフレームワークにシームレスに組み込む。
C-WAH と TDW-MAT を用いた実験により, GPT-4 で駆動される CoELA が, 強い計画に基づく手法を超越し, 創発的な効果的なコミュニケーションを示すことを示した。
論文 参考訳(メタデータ) (2023-07-05T17:59:27Z) - From Interactive to Co-Constructive Task Learning [13.493719155524404]
インタラクティブなタスク学習に関する現在の提案をレビューし、その主な貢献について論じる。
次に、共同構築の概念について議論し、成人とロボットの相互作用からの研究知見を要約する。
論文 参考訳(メタデータ) (2023-05-24T19:45:30Z) - CAMEL: Communicative Agents for "Mind" Exploration of Large Language
Model Society [58.04479313658851]
本稿では,コミュニケーションエージェント間の自律的協調を支援するスケーラブルな手法の構築の可能性について検討する。
本稿では,ロールプレイングという新しいコミュニケーションエージェントフレームワークを提案する。
コントリビューションには、新しいコミュニケーティブエージェントフレームワークの導入、マルチエージェントシステムの協調行動や能力を研究するためのスケーラブルなアプローチの提供などが含まれます。
論文 参考訳(メタデータ) (2023-03-31T01:09:00Z) - Coordination with Humans via Strategy Matching [5.072077366588174]
協調作業を行う人間と人間のチームを観察することにより、利用可能なタスク補完戦略を自律的に認識するアルゴリズムを提案する。
隠れマルコフモデルを使って、チームアクションを低次元の表現に変換することで、事前の知識なしに戦略を識別できます。
ロボットポリシーは、未確認のパートナーのタスク戦略に適応するMixture-of-Expertsモデルを構築するための、識別された戦略のそれぞれに基づいて学習される。
論文 参考訳(メタデータ) (2022-10-27T01:00:50Z) - Towards Collaborative Question Answering: A Preliminary Study [63.91687114660126]
我々は、モデレーターによって調整された複数の専門家エージェントが協力して、単一のエージェントだけでは答えられない質問に答える新しいQAタスクCollabQAを提案する。
専門家に分散可能な,大規模な知識グラフの合成データセットを作成する。
専門家が完璧で均一でない限り,コラボレーション構造を導入することなく,この問題が解決可能であることを示す。
論文 参考訳(メタデータ) (2022-01-24T14:27:00Z) - MindCraft: Theory of Mind Modeling for Situated Dialogue in
Collaborative Tasks [2.5725755841426623]
心の理論は、人間の協調とコミュニケーションの間、共通基盤を維持する上で重要な役割を担っている。
Minecraftの3D仮想ブロックの世界において、人間のペアが行う協調作業のきめ細かいデータセットを紹介した。
相互作用が展開するにつれて、パートナーの世界の信念と互いの信念をキャプチャする情報を提供する。
論文 参考訳(メタデータ) (2021-09-13T19:26:19Z) - On the Critical Role of Conventions in Adaptive Human-AI Collaboration [73.21967490610142]
規則依存表現と規則依存表現を区別する学習フレームワークを提案する。
複雑性が異なる3つの共同作業に対するアプローチを実験的に検証します。
論文 参考訳(メタデータ) (2021-04-07T02:46:19Z) - Human Robot Collaborative Assembly Planning: An Answer Set Programming
Approach [4.329298109272387]
本研究では,不確実性を考慮した協調的な組立計画手法を提案する。
実世界の組立ドメインでは、ロボットが人間のチームメイトと協調して家具を組み立てる。
論文 参考訳(メタデータ) (2020-08-08T11:31:36Z) - LEMMA: A Multi-view Dataset for Learning Multi-agent Multi-task
Activities [119.88381048477854]
LEMMAデータセットを導入し、細心の注意深い設定で、行方不明な次元に対処するための単一の家を提供する。
我々は、人間と物体の相互作用による原子間相互作用を密に注釈し、日常の活動の構成性、スケジューリング、割り当ての土台として提供する。
この取り組みにより、マシンビジョンコミュニティは、目標指向の人間活動を調べ、現実世界におけるタスクのスケジューリングと割り当てをさらに研究できることを期待します。
論文 参考訳(メタデータ) (2020-07-31T00:13:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。