論文の概要: Gap the (Theory of) Mind: Sharing Beliefs About Teammates' Goals Boosts Collaboration Perception, Not Performance
- arxiv url: http://arxiv.org/abs/2505.03674v1
- Date: Tue, 06 May 2025 16:15:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.470204
- Title: Gap the (Theory of) Mind: Sharing Beliefs About Teammates' Goals Boosts Collaboration Perception, Not Performance
- Title(参考訳): 心(理論)のギャップ:チームメイトの目標に対する信念を共有することで、コラボレーションの認知は向上し、パフォーマンスは向上しない
- Authors: Yotam Amitai, Reuth Mirsky, Ofra Amir,
- Abstract要約: そこで我々は,AIエージェントが人間のチームメイトの目標を推定して理解する能力が,タスクパフォーマンスと認識されたコラボレーションを改善することができるかどうかを検討する。
目標共有情報はタスクパフォーマンスや全体的な満足度スコアに大きな改善は得られなかったが、セマンティック分析により、戦略的適応と協調に対する主観的認識を支持したことが示唆された。
- 参考スコア(独自算出の注目度): 10.942993858770757
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In human-agent teams, openly sharing goals is often assumed to enhance planning, collaboration, and effectiveness. However, direct communication of these goals is not always feasible, requiring teammates to infer their partner's intentions through actions. Building on this, we investigate whether an AI agent's ability to share its inferred understanding of a human teammate's goals can improve task performance and perceived collaboration. Through an experiment comparing three conditions-no recognition (NR), viable goals (VG), and viable goals on-demand (VGod) - we find that while goal-sharing information did not yield significant improvements in task performance or overall satisfaction scores, thematic analysis suggests that it supported strategic adaptations and subjective perceptions of collaboration. Cognitive load assessments revealed no additional burden across conditions, highlighting the challenge of balancing informativeness and simplicity in human-agent interactions. These findings highlight the nuanced trade-off of goal-sharing: while it fosters trust and enhances perceived collaboration, it can occasionally hinder objective performance gains.
- Abstract(参考訳): ヒューマンエージェントチームでは、計画やコラボレーション、有効性を高めるために、オープンに目標を共有することがしばしば考えられます。
しかし、これらの目標の直接的なコミュニケーションは必ずしも実現可能ではなく、チームメイトが行動を通じてパートナーの意図を推測する必要がある。
これに基づいて、AIエージェントが人間のチームメイトの目標に対する推論された理解を共有する能力が、タスクパフォーマンスと認識されたコラボレーションを改善することができるかどうかを検討する。
3つの条件非認識(NR)、実行可能目標(VG)、オンデマンド(VGod)を比較した実験により、ゴール共有情報はタスクのパフォーマンスや全体的な満足度スコアに大きな改善は得られなかったが、システマティック分析により、戦略的適応と協調の主観的認識を支持したことが示唆された。
認知的負荷評価では、人間とエージェントの相互作用において、情報性と単純さのバランスをとることの難しさが強調された。
これらの発見は、ゴールシェアリングの微妙なトレードオフを浮き彫りにしている。信頼を育み、コラボレーションの認知を高める一方で、時には客観的なパフォーマンス向上を阻害する可能性がある。
関連論文リスト
- Who is Helping Whom? Analyzing Inter-dependencies to Evaluate Cooperation in Human-AI Teaming [14.489157453882767]
本稿では, エージェントが相互の行動にどの程度依存しているかを測定するために, 相互依存の概念を提案する。
私たちは、MARL for HATでトレーニングされた最先端のエージェントと、人気のあるオーバークッキングドメインの学習された人間モデルとをペアにし、これらのヒューマンエージェントチームのチームパフォーマンスを評価します。
論文 参考訳(メタデータ) (2025-02-10T19:16:20Z) - Collaborative Gym: A Framework for Enabling and Evaluating Human-Agent Collaboration [51.452664740963066]
Collaborative Gymは、エージェント、人間、タスク環境間の非同期で三分割的なインタラクションを可能にするフレームワークである。
シミュレーション条件と実環境条件の両方において,Co-Gymを3つの代表的なタスクでインスタンス化する。
その結果、協調作業員はタスクパフォーマンスにおいて、完全に自律的なエージェントよりも一貫して優れていたことが判明した。
論文 参考訳(メタデータ) (2024-12-20T09:21:15Z) - Mutual Theory of Mind in Human-AI Collaboration: An Empirical Study with LLM-driven AI Agents in a Real-time Shared Workspace Task [56.92961847155029]
心の理論(ToM)は、他人を理解する上で重要な能力として、人間の協調とコミュニケーションに大きな影響を及ぼす。
Mutual Theory of Mind (MToM) は、ToM能力を持つAIエージェントが人間と協力するときに発生する。
エージェントのToM能力はチームのパフォーマンスに大きな影響を与えず,エージェントの人間的理解を高めていることがわかった。
論文 参考訳(メタデータ) (2024-09-13T13:19:48Z) - Sharing the Cost of Success: A Game for Evaluating and Learning Collaborative Multi-Agent Instruction Giving and Following Policies [19.82683688911297]
本稿では、2人のプレイヤーが視覚と言語の観察を協調する必要がある、挑戦的な対話型参照ゲームを提案する。
本稿では,PPO(Proximal Policy Optimization)の標準設定が,パートナー行動のブートストラップによって高い成功率を達成することを示す。
神経パートナーのペアリングは、繰り返し演奏する際の測定された関節の労力を減少させる。
論文 参考訳(メタデータ) (2024-03-26T08:58:28Z) - AntEval: Evaluation of Social Interaction Competencies in LLM-Driven
Agents [65.16893197330589]
大規模言語モデル(LLM)は、幅広いシナリオで人間の振る舞いを再現する能力を示した。
しかし、複雑なマルチ文字のソーシャルインタラクションを扱う能力については、まだ完全には研究されていない。
本稿では,新しいインタラクションフレームワークと評価手法を含むマルチエージェントインタラクション評価フレームワーク(AntEval)を紹介する。
論文 参考訳(メタデータ) (2024-01-12T11:18:00Z) - Inferring the Goals of Communicating Agents from Actions and
Instructions [47.5816320484482]
本稿では,あるエージェント,プリンシパルが,その共有計画に関する自然言語指示を他のエージェント,アシスタントに伝達できるような協力チームのモデルを提案する。
3人目のオブザーバが、アクションや指示からマルチモーダルな逆計画を通じて、チームの目標を推測する方法を示します。
我々は,マルチエージェントグリッドワールドにおける人間の目標推定と比較し,モデルの推定が人間の判断と密接に相関していることを見出した。
論文 参考訳(メタデータ) (2023-06-28T13:43:46Z) - ToM2C: Target-oriented Multi-agent Communication and Cooperation with
Theory of Mind [18.85252946546942]
心の理論(Theory of Mind、ToM)は、効果的なコミュニケーションと協力が可能な社会的に知的なエージェントを構築する。
このアイデアは、協調ナビゲーションとマルチセンサーターゲットカバレッジという、2つの典型的な目標指向型マルチエージェントタスクで実証される。
論文 参考訳(メタデータ) (2021-10-15T18:29:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。