論文の概要: Adaptive Theory of Mind for LLM-based Multi-Agent Coordination
- arxiv url: http://arxiv.org/abs/2603.16264v1
- Date: Tue, 17 Mar 2026 08:52:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.182739
- Title: Adaptive Theory of Mind for LLM-based Multi-Agent Coordination
- Title(参考訳): LLMに基づくマルチエージェントコーディネーションのためのマインドの適応理論
- Authors: Chunjiang Mu, Ya Zeng, Qiaosheng Zhang, Kun Shao, Chen Chu, Hao Guo, Danyang Jia, Zhen Wang, Shuyue Hu,
- Abstract要約: 心の理論(りょうせい、英: Theory of Mind)とは、他者の精神状態について考える能力のこと。
適応型ToM(A-ToM)エージェントを設計し、ToMの注文をパートナーと整合させることができる。
- 参考スコア(独自算出の注目度): 17.374096437201413
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Theory of Mind (ToM) refers to the ability to reason about others' mental states, and higher-order ToM involves considering that others also possess their own ToM. Equipping large language model (LLM)-driven agents with ToM has long been considered to improve their coordination in multiagent collaborative tasks. However, we find that misaligned ToM orders-mismatches in the depth of ToM reasoning between agents-can lead to insufficient or excessive reasoning about others, thereby impairing their coordination. To address this issue, we design an adaptive ToM (A-ToM) agent, which can align in ToM orders with its partner. Based on prior interactions, the agent estimates the partner's likely ToM order and leverages this estimation to predict the partner's action, thereby facilitating behavioral coordination. We conduct empirical evaluations on four multi-agent coordination tasks: a repeated matrix game, two grid navigation tasks and an Overcooked task. The results validate our findings on ToM alignment and demonstrate the effectiveness of our A-ToM agent. Furthermore, we discuss the generalizability of our A-ToM to non-LLM-based agents, as well as what would diminish the importance of ToM alignment.
- Abstract(参考訳): 心の理論(とうがく、英: Theory of Mind)とは、他者の精神状態について考える能力のこと。
大規模言語モデル(LLM)駆動エージェントをToMで取得することは、長年にわたり、マルチエージェント協調タスクにおける調整を改善すると考えられてきた。
しかし,ToM の命令ミスマッチがエージェント間の推論の深さで不一致しているため,他者に対する推論が不十分あるいは過剰になり,協調が損なわれることが判明した。
この問題に対処するために,適応型ToM (A-ToM) エージェントを設計し,ToM の注文をパートナーと整合させることができる。
事前の相互作用に基づいて、エージェントはパートナーのToM順序を推定し、この推定を利用してパートナーの行動を予測し、行動調整を容易にする。
我々は,反復行列ゲーム,2つのグリッドナビゲーションタスク,オーバークッキングタスクの4つのマルチエージェント調整タスクに対して,経験的評価を行う。
その結果,ToMアライメントに関する知見を検証し,A-ToMエージェントの有効性を実証した。
さらに,非LLM系エージェントに対するA-ToMの一般化可能性や,ToMアライメントの重要性について検討した。
関連論文リスト
- LLM-Hanabi: Evaluating Multi-Agent Gameplays with Theory-of-Mind and Rationale Inference in Imperfect Information Collaboration Game [47.019077016616144]
本研究では,協調ゲーム「はなび」を用いて合理的推論とToMを評価する新しいベンチマーク「LM-Hanabi」を紹介する。
様々なモデルにおいて,ToMとゲーム内成功との間に有意な正の相関関係が認められた。
我々は,一階ToMの優先順位付けが将来のモデルの協調能力を向上するための有望な方向であると結論付けている。
論文 参考訳(メタデータ) (2025-10-06T16:17:24Z) - Theory of Mind Using Active Inference: A Framework for Multi-Agent Cooperation [4.033462754517733]
心の理論 (ToM) は、エージェントが自分の行動を計画しながら他人の信念を推論することを可能にする。
能動推論におけるToMの実装によるマルチエージェント協調への新しいアプローチを提案する。
論文 参考訳(メタデータ) (2025-08-01T08:02:35Z) - SAND: Boosting LLM Agents with Self-Taught Action Deliberation [54.48979740613828]
大規模言語モデル(LLM)エージェントは、通常、ReActスタイルの専門家軌道の教師付き微調整や、ペアのロールアウトよりも好みの最適化で調整される。
本稿では,自己学習型アクチオN審議(SAND)フレームワークを提案する。
SANDは、初期教師付き微調整よりも平均20%改善し、また最先端のエージェントチューニングアプローチより優れている。
論文 参考訳(メタデータ) (2025-07-10T05:38:15Z) - Large Language Models as Theory of Mind Aware Generative Agents with Counterfactual Reflection [31.38516078163367]
ToM-agentは、オープンドメインの会話相互作用において、LLMベースの生成エージェントがToMをシミュレートできるように設計されている。
ToM-Adntは、精神状態に対するエージェントの認識のエミュレーションを促進するため、精神状態からの信頼を解き放つ。
以上の結果から,ToM-agentは,意味的情緒的支援や意思決定に限らず,相手の行動の根底にある要因を把握できることが示唆された。
論文 参考訳(メタデータ) (2025-01-26T00:32:38Z) - Mutual Theory of Mind in Human-AI Collaboration: An Empirical Study with LLM-driven AI Agents in a Real-time Shared Workspace Task [56.92961847155029]
心の理論(ToM)は、他人を理解する上で重要な能力として、人間の協調とコミュニケーションに大きな影響を及ぼす。
Mutual Theory of Mind (MToM) は、ToM能力を持つAIエージェントが人間と協力するときに発生する。
エージェントのToM能力はチームのパフォーマンスに大きな影響を与えず,エージェントの人間的理解を高めていることがわかった。
論文 参考訳(メタデータ) (2024-09-13T13:19:48Z) - Emergence of Theory of Mind Collaboration in Multiagent Systems [65.97255691640561]
ToMとエージェント間の効果的な協調を開発するための適応的学習アルゴリズムを提案する。
アルゴリズムはToMをモデル化せずに従来の分散実行アルゴリズムを全て上回る2つのゲームで評価する。
論文 参考訳(メタデータ) (2021-09-30T23:28:00Z) - UneVEn: Universal Value Exploration for Multi-Agent Reinforcement
Learning [53.73686229912562]
我々はUniversal Value Exploration(UneVEn)と呼ばれる新しいMARLアプローチを提案する。
UneVEnは、一連の関連するタスクと、普遍的な後継機能の線形分解を同時に学習する。
一連の探索ゲームにおける実証的な結果、エージェント間の重要な調整を必要とする協調捕食・捕食作業への挑戦、およびStarCraft IIのマイクロマネジメントベンチマークは、UneVEnが他の最先端のMARLメソッドが失敗するタスクを解決できることを示している。
論文 参考訳(メタデータ) (2020-10-06T19:08:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。