論文の概要: ProToM: Promoting Prosocial Behaviour via Theory of Mind-Informed Feedback
- arxiv url: http://arxiv.org/abs/2509.05091v1
- Date: Fri, 05 Sep 2025 13:30:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.599155
- Title: ProToM: Promoting Prosocial Behaviour via Theory of Mind-Informed Feedback
- Title(参考訳): ProToM:マインドインフォームドフィードバック理論による社会的行動の促進
- Authors: Matteo Bortoletto, Yichao Zhou, Lance Ying, Tianmin Shu, Andreas Bulling,
- Abstract要約: 本稿では,マルチエージェントシステムにおける社会的行動を促進する,心的インフォームド・ファシリテータであるProToMを紹介する。
ProToMは、目標と有用なフィードバックを提供し、より高い成功率、タスク完了時間の短縮を実現し、一貫して人間のユーザに好まれる。
- 参考スコア(独自算出の注目度): 26.010571231129152
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: While humans are inherently social creatures, the challenge of identifying when and how to assist and collaborate with others - particularly when pursuing independent goals - can hinder cooperation. To address this challenge, we aim to develop an AI system that provides useful feedback to promote prosocial behaviour - actions that benefit others, even when not directly aligned with one's own goals. We introduce ProToM, a Theory of Mind-informed facilitator that promotes prosocial actions in multi-agent systems by providing targeted, context-sensitive feedback to individual agents. ProToM first infers agents' goals using Bayesian inverse planning, then selects feedback to communicate by maximising expected utility, conditioned on the inferred goal distribution. We evaluate our approach against baselines in two multi-agent environments: Doors, Keys, and Gems, as well as Overcooked. Our results suggest that state-of-the-art large language and reasoning models fall short of communicating feedback that is both contextually grounded and well-timed - leading to higher communication overhead and task speedup. In contrast, ProToM provides targeted and helpful feedback, achieving a higher success rate, shorter task completion times, and is consistently preferred by human users.
- Abstract(参考訳): 人間は本質的に社会的な生き物である一方で、いつ、どのように協力するかという課題は、特に独立した目標を追求するときに、協力を妨げます。
この課題に対処するために、私たちは、社会的行動を促進するために有用なフィードバックを提供するAIシステムを開発することを目指している。
本稿では,マルチエージェントシステムにおいて,個人エージェントにターゲット的,文脈に敏感なフィードバックを提供することによって,プロソシエティ行動を促進する,マインドインフォームド・ファシリテータであるProToMを紹介する。
ProToMはまず,ベイジアン逆計画を用いてエージェントの目標を推定し,推定目標分布に条件付き予測ユーティリティを最大化することにより,フィードバックを選択してコミュニケーションを行う。
我々は,2つのマルチエージェント環境(ドア,キー,Gems,Overcooked)におけるベースラインに対するアプローチを評価した。
この結果から,最先端の大規模言語と推論モデルでは,文脈的基盤と良好なタイミングのコミュニケーションフィードバックが不足し,通信オーバーヘッドやタスクのスピードアップが向上することが示唆された。
対照的に、ProToMは目標と有用なフィードバックを提供し、より高い成功率、タスク完了時間の短縮を実現し、一貫して人間のユーザに好まれる。
関連論文リスト
- Gap the (Theory of) Mind: Sharing Beliefs About Teammates' Goals Boosts Collaboration Perception, Not Performance [10.942993858770757]
そこで我々は,AIエージェントが人間のチームメイトの目標を推定して理解する能力が,タスクパフォーマンスと認識されたコラボレーションを改善することができるかどうかを検討する。
目標共有情報はタスクパフォーマンスや全体的な満足度スコアに大きな改善は得られなかったが、セマンティック分析により、戦略的適応と協調に対する主観的認識を支持したことが示唆された。
論文 参考訳(メタデータ) (2025-05-06T16:15:24Z) - Mutual Theory of Mind in Human-AI Collaboration: An Empirical Study with LLM-driven AI Agents in a Real-time Shared Workspace Task [56.92961847155029]
心の理論(ToM)は、他人を理解する上で重要な能力として、人間の協調とコミュニケーションに大きな影響を及ぼす。
Mutual Theory of Mind (MToM) は、ToM能力を持つAIエージェントが人間と協力するときに発生する。
エージェントのToM能力はチームのパフォーマンスに大きな影響を与えず,エージェントの人間的理解を高めていることがわかった。
論文 参考訳(メタデータ) (2024-09-13T13:19:48Z) - GOMA: Proactive Embodied Cooperative Communication via Goal-Oriented Mental Alignment [72.96949760114575]
我々は、ゴール指向メンタルアライメント(GOMA)という新しい協調コミュニケーションフレームワークを提案する。
GOMAは、目標に関連のあるエージェントの精神状態のミスアライメントを最小限に抑える計画問題として、言語コミュニケーションを定式化している。
我々は,Overcooked(マルチプレイヤーゲーム)とVirtualHome(家庭用シミュレータ)の2つの挑戦環境において,強いベースラインに対するアプローチを評価する。
論文 参考訳(メタデータ) (2024-03-17T03:52:52Z) - Pragmatic Instruction Following and Goal Assistance via Cooperative
Language-Guided Inverse Planning [52.91457780361305]
本稿では,協調型言語誘導逆計画探索(CLIPS)を紹介する。
我々のエージェントは、協力的なプランナーとして人間をモデル化し、アシスタントに共同計画を伝える。
2つの協調計画領域(ドア,キー&ジェム,バーチャルホーム)におけるこれらの機能の評価
論文 参考訳(メタデータ) (2024-02-27T23:06:53Z) - Inferring the Goals of Communicating Agents from Actions and
Instructions [47.5816320484482]
本稿では,あるエージェント,プリンシパルが,その共有計画に関する自然言語指示を他のエージェント,アシスタントに伝達できるような協力チームのモデルを提案する。
3人目のオブザーバが、アクションや指示からマルチモーダルな逆計画を通じて、チームの目標を推測する方法を示します。
我々は,マルチエージェントグリッドワールドにおける人間の目標推定と比較し,モデルの推定が人間の判断と密接に相関していることを見出した。
論文 参考訳(メタデータ) (2023-06-28T13:43:46Z) - Multiagent Inverse Reinforcement Learning via Theory of Mind Reasoning [0.0]
我々は,Multiagent Inverse Reinforcement Learning(MIRL)に対する新しいアプローチを提案する。
MIRLは、タスクパフォーマンス中に与えられた各チームの振る舞いの軌跡を導く報酬関数を推論することを目的としている。
シミュレーション2-player search-and-rescue 動作におけるアプローチの評価を行った。
論文 参考訳(メタデータ) (2023-02-20T19:07:42Z) - NOPA: Neurally-guided Online Probabilistic Assistance for Building
Socially Intelligent Home Assistants [79.27554831580309]
われわれは、家庭内の人々を支援するために、社会的にインテリジェントなロボットを構築する方法を研究する。
ロボットは人間の目標を同時に推測しなければならない。
論文 参考訳(メタデータ) (2023-01-12T18:59:34Z) - ToM2C: Target-oriented Multi-agent Communication and Cooperation with
Theory of Mind [18.85252946546942]
心の理論(Theory of Mind、ToM)は、効果的なコミュニケーションと協力が可能な社会的に知的なエージェントを構築する。
このアイデアは、協調ナビゲーションとマルチセンサーターゲットカバレッジという、2つの典型的な目標指向型マルチエージェントタスクで実証される。
論文 参考訳(メタデータ) (2021-10-15T18:29:55Z) - Can You be More Social? Injecting Politeness and Positivity into
Task-Oriented Conversational Agents [60.27066549589362]
人間エージェントが使用する社会言語は、ユーザーの応答性の向上とタスク完了に関連しています。
このモデルは、ソーシャル言語理解要素で拡張されたシーケンスからシーケンスまでのディープラーニングアーキテクチャを使用する。
人的判断と自動言語尺度の両方を用いたコンテンツ保存と社会言語レベルの評価は,エージェントがより社会的に適切な方法でユーザの問題に対処できる応答を生成できることを示している。
論文 参考訳(メタデータ) (2020-12-29T08:22:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。