論文の概要: Evaluating Theory of Mind and Internal Beliefs in LLM-Based Multi-Agent Systems
- arxiv url: http://arxiv.org/abs/2603.00142v1
- Date: Tue, 24 Feb 2026 09:16:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.052116
- Title: Evaluating Theory of Mind and Internal Beliefs in LLM-Based Multi-Agent Systems
- Title(参考訳): LLMに基づくマルチエージェントシステムにおける心と内的信念の理論の評価
- Authors: Adam Kostka, Jarosław A. Chudziak,
- Abstract要約: LLMベースのMASは、自然言語理解、推論、計画の進歩によって強化された協調的な問題解決の可能性から人気を集めている。
The Research in Theory of Mind (ToM) and Belief-Desire-Intention (BDI) model has its potential to further improve the agent's interaction and decision-making in such systems。
ToM、BDIスタイルの内部信念、および論理的検証のためのシンボリック・ソルバを統合した新しいマルチエージェントアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LLM-based MAS are gaining popularity due to their potential for collaborative problem-solving enhanced by advances in natural language comprehension, reasoning, and planning. Research in Theory of Mind (ToM) and Belief-Desire-Intention (BDI) models has the potential to further improve the agent's interaction and decision-making in such systems. However, collaborative intelligence in dynamic worlds remains difficult to accomplish since LLM performance in multi-agent worlds is extremely variable. Simply adding cognitive mechanisms like ToM and internal beliefs does not automatically result in improved coordination. The interplay between these mechanisms, particularly in relation to formal logic verification, remains largely underexplored in different LLMs. This work investigates: How do internal belief mechanisms, including symbolic solvers and Theory of Mind, influence collaborative decision-making in LLM-based multi-agent systems, and how does the interplay of those components influence system accuracy? We introduce a novel multi-agent architecture integrating ToM, BDI-style internal beliefs, and symbolic solvers for logical verification. We evaluate this architecture in a resource allocation problem with various LLMs and find an intricate interaction between LLM capabilities, cognitive mechanisms, and performance. This work contributes to the area of AI by proposing a novel multi-agent system with ToM, internal beliefs, and symbolic solvers for augmenting collaborative intelligence in multi-agent systems and evaluating its performance under different LLM settings.
- Abstract(参考訳): LLMベースのMASは、自然言語理解、推論、計画の進歩によって強化された協調的な問題解決の可能性から人気を集めている。
The Research in Theory of Mind (ToM) and Belief-Desire-Intention (BDI) model has its potential to further improve the agent's interaction and decision-making in such systems。
しかし,マルチエージェントの世界におけるLLMの性能は非常に変動するため,動的世界における協調的知能の実現は困難である。
単にToMや内部信念のような認知メカニズムを追加するだけでは、自動的にコーディネーションが改善されるわけではない。
これらのメカニズム間の相互作用、特に形式論理の検証は、主に異なるLLMにおいて過小評価されている。
シンボリック・ソルバや心の理論を含む内的信念のメカニズムは、LLMベースのマルチエージェントシステムにおける協調的意思決定にどのように影響し、これらのコンポーネントの相互作用はシステムの正確性にどのように影響しますか?
ToM、BDIスタイルの内部信念、および論理的検証のためのシンボリック・ソルバを統合した新しいマルチエージェントアーキテクチャを提案する。
我々は,このアーキテクチャを様々なLLMの資源配分問題において評価し,LLM能力,認知機構,性能の複雑な相互作用を見出す。
この研究は、ToMによる新しいマルチエージェントシステム、内部信念、そして多エージェントシステムにおける協調インテリジェンスを増強し、異なるLLM設定下での性能を評価するシンボリック・ソルバを提案することで、AIの領域に寄与する。
関連論文リスト
- Fundamentals of Building Autonomous LLM Agents [64.39018305018904]
本稿では,大規模言語モデル(LLM)を用いたエージェントのアーキテクチャと実装手法について概説する。
この研究は、複雑なタスクを自動化し、人間の能力でパフォーマンスのギャップを埋めることのできる「アジェンティック」なLLMを開発するためのパターンを探求することを目的としている。
論文 参考訳(メタデータ) (2025-10-10T10:32:39Z) - CoMAS: Co-Evolving Multi-Agent Systems via Interaction Rewards [80.78748457530718]
自己進化(Self-evolution)は、大規模言語モデル(LLM)ベースのエージェントが事前トレーニング後の能力を継続的に改善できるようにする上で、中心的な研究トピックである。
エージェントがエージェント間相互作用から学習することで自律的に改善できる新しいフレームワークであるCo-Evolving Multi-Agent Systems (CoMAS)を紹介する。
論文 参考訳(メタデータ) (2025-10-09T17:50:26Z) - Corrupted by Reasoning: Reasoning Language Models Become Free-Riders in Public Goods Games [87.5673042805229]
大規模言語モデルは、アライメント、堅牢性、安全なデプロイメントを保証する上で、いかに自己関心と集合的幸福のバランスをとるかが重要な課題である。
我々は、行動経済学から制度的に選択した公共財ゲームに適応し、異なるLLMがいかに社会的ジレンマをナビゲートするかを観察することができる。
意外なことに、o1シリーズのようなLCMの推論は、協調にかなり苦労している。
論文 参考訳(メタデータ) (2025-06-29T15:02:47Z) - Meta-Thinking in LLMs via Multi-Agent Reinforcement Learning: A Survey [2.572335031488049]
本稿では,MARL(Multi-Agent Reinforcement Learning)の観点から,大規模言語モデル(LLM)におけるメタ思考機能の開発について検討する。
MARLにおける報酬メカニズム、自己プレー、継続的な学習手法を探求することにより、この調査はイントロスペクティブで適応的で信頼性の高いLLMを構築するための包括的なロードマップを提供する。
論文 参考訳(メタデータ) (2025-04-20T07:34:26Z) - Modeling Response Consistency in Multi-Agent LLM Systems: A Comparative Analysis of Shared and Separate Context Approaches [0.0]
本稿では,文脈制約,ノイズ,エージェント間の依存性がシステム性能に与える影響を評価する指標として,応答一貫性指数(RCI)を導入する。
提案手法は,メモリ制約とノイズ管理の相互作用に着目した既存研究と異なる。
論文 参考訳(メタデータ) (2025-04-09T21:54:21Z) - ReMA: Learning to Meta-think for LLMs with Multi-Agent Reinforcement Learning [53.817538122688944]
Reinforced Meta-thinking Agents (ReMA) を導入し,Large Language Models (LLMs) の推論からメタ思考行動を求める。
ReMAは、推論プロセスを2つの階層的なエージェントに分解する。戦略上の監視と計画を生成するハイレベルなメタ思考エージェントと、詳細な実行のための低レベルな推論エージェントである。
単ターン実験による実験結果から、ReMAは複雑な推論タスクにおいて単エージェントRLベースラインよりも優れることが示された。
論文 参考訳(メタデータ) (2025-03-12T16:05:31Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - Organizing a Society of Language Models: Structures and Mechanisms for Enhanced Collective Intelligence [0.0]
本稿では,大規模言語モデルからコミュニティ構造への変換手法を提案する。
協力型AIシステムに特有のメリットと課題を提示する,階層的,フラット,ダイナミック,フェデレートされたさまざまな組織モデルについて検討する。
このようなコミュニティの実装は、AIにおける問題解決能力を改善するための大きな約束を持っている。
論文 参考訳(メタデータ) (2024-05-06T20:15:45Z) - Balancing Autonomy and Alignment: A Multi-Dimensional Taxonomy for
Autonomous LLM-powered Multi-Agent Architectures [0.0]
大規模言語モデル(LLM)は、洗練された言語理解と生成能力を備えた人工知能の分野に革命をもたらした。
本稿では,LLMを用いた自律型マルチエージェントシステムが自律性とアライメントの動的相互作用をどのようにバランスさせるかを分析するために,総合的な多次元分類法を提案する。
論文 参考訳(メタデータ) (2023-10-05T16:37:29Z) - Exploring Collaboration Mechanisms for LLM Agents: A Social Psychology View [60.80731090755224]
本稿では,理論的洞察を用いた実用実験により,現代NLPシステム間の協調機構を解明する。
我々は, LLMエージェントからなる4つの独特な社会をつくり, それぞれのエージェントは, 特定の特性(容易性, 過信性)によって特徴づけられ, 異なる思考パターン(議論, ふりかえり)と協調する。
以上の結果から, LLMエージェントは, 社会心理学理論を反映した, 適合性やコンセンサスリーディングといった人間的な社会的行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2023-10-03T15:05:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。