論文の概要: Thought Communication in Multiagent Collaboration
- arxiv url: http://arxiv.org/abs/2510.20733v1
- Date: Thu, 23 Oct 2025 16:48:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:18.429972
- Title: Thought Communication in Multiagent Collaboration
- Title(参考訳): マルチエージェントコラボレーションにおける思考コミュニケーション
- Authors: Yujia Zheng, Zhuokai Zhao, Zijian Li, Yaqi Xie, Mingze Gao, Lizhu Zhang, Kun Zhang,
- Abstract要約: エージェントが直接マインド・ツー・マインド・マインド・ツー・マインド・マインド・マインド・マインド・マインド・ツー・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド
補助情報のない非パラメトリックな環境では、任意のエージェント間の共有思考とプライベート思考の両方が識別可能であることを証明している。
我々は,コミュニケーションに先立ってすべてのエージェントから潜在的思考を抽出し,各エージェントに関連する思考を割り当てる枠組みを構築した。
- 参考スコア(独自算出の注目度): 17.374295882257577
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Natural language has long enabled human cooperation, but its lossy, ambiguous, and indirect nature limits the potential of collective intelligence. While machines are not subject to these constraints, most LLM-based multi-agent systems still rely solely on natural language, exchanging tokens or their embeddings. To go beyond language, we introduce a new paradigm, thought communication, which enables agents to interact directly mind-to-mind, akin to telepathy. To uncover these latent thoughts in a principled way, we formalize the process as a general latent variable model, where agent states are generated by an unknown function of underlying thoughts. We prove that, in a nonparametric setting without auxiliary information, both shared and private latent thoughts between any pair of agents can be identified. Moreover, the global structure of thought sharing, including which agents share which thoughts and how these relationships are structured, can also be recovered with theoretical guarantees. Guided by the established theory, we develop a framework that extracts latent thoughts from all agents prior to communication and assigns each agent the relevant thoughts, along with their sharing patterns. This paradigm naturally extends beyond LLMs to all modalities, as most observational data arise from hidden generative processes. Experiments on both synthetic and real-world benchmarks validate the theory and demonstrate the collaborative advantages of thought communication. We hope this work illuminates the potential of leveraging the hidden world, as many challenges remain unsolvable through surface-level observation alone, regardless of compute or data scale.
- Abstract(参考訳): 自然言語は長い間人間の協力を可能にしてきたが、その損失、曖昧さ、間接的な性質は集団知性の可能性を制限する。
マシンはこれらの制約に従わないが、ほとんどのLLMベースのマルチエージェントシステムは依然として自然言語にのみ依存し、トークンや埋め込みを交換する。
言語を超えて、エージェントが直接マインド・ツー・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・マインド・
これらの潜在的思考を原則的に明らかにするために、エージェント状態は基礎的思考の未知の関数によって生成される一般潜在変数モデルとしてプロセスを形式化する。
補助情報のない非パラメトリックな環境では、任意のエージェント間の共有思考とプライベート思考の両方が識別可能であることを証明している。
さらに、どのエージェントがどの思考を共有し、それらの関係がどのように構成されているかを含む、思考共有のグローバルな構造も理論的保証をもって復元できる。
確立された理論に導かれ,コミュニケーションに先立ってすべてのエージェントから潜在的思考を抽出し,各エージェントに関連する思考を,その共有パターンとともに割り当てる枠組みを構築した。
このパラダイムは、隠された生成過程からほとんどの観測データが生じるため、自然にLLMを超えて全てのモダリティにまで拡張される。
合成および実世界のベンチマークの実験は、この理論を検証し、思考コミュニケーションの協調的な利点を実証する。
計算やデータスケールに関わらず、表面レベルでの観測だけで多くの課題が解決不可能なままでありながら、この研究が隠れた世界を活用する可能性に照らされることを願っている。
関連論文リスト
- Theory of Mind Using Active Inference: A Framework for Multi-Agent Cooperation [4.033462754517733]
心の理論 (ToM) は、エージェントが自分の行動を計画しながら他人の信念を推論することを可能にする。
能動推論におけるToMの実装によるマルチエージェント協調への新しいアプローチを提案する。
論文 参考訳(メタデータ) (2025-08-01T08:02:35Z) - The Unified Cognitive Consciousness Theory for Language Models: Anchoring Semantics, Thresholds of Activation, and Emergent Reasoning [2.0800882594868293]
統一認知意識理論(UCCT)は、これらを巨大な無意識パターンリポジトリとみなしている。
UCCTはこの過程を、事前学習で学んだ統計的事前学習と文脈駆動のターゲットパターンの間のベイズ的競争として定式化している。
我々はこの理論を、しきい値交差、モダリティ、密度距離予測力の3つの原理で基礎づける。
論文 参考訳(メタデータ) (2025-06-02T18:12:43Z) - Sentient Agent as a Judge: Evaluating Higher-Order Social Cognition in Large Language Models [75.85319609088354]
SAGE(Sentient Agent as a Judge)は、大規模言語モデルの評価フレームワークである。
SAGEは人間のような感情の変化や内的思考をシミュレートするSentient Agentをインスタンス化する。
SAGEは、真に共感的で社会的に適応的な言語エージェントへの進捗を追跡するための、原則付き、スケーラブルで解釈可能なツールを提供する。
論文 参考訳(メタデータ) (2025-05-01T19:06:10Z) - Spontaneous Emergence of Agent Individuality through Social Interactions in LLM-Based Communities [0.0]
本稿では,Large Language Model (LLM) ベースのエージェントを用いて,ゼロからエージェントが出現することを検討する。
このマルチエージェントシミュレーションを解析することにより、社会的規範、協力、性格特性が自然に出現する方法について、貴重な新しい知見を報告する。
論文 参考訳(メタデータ) (2024-11-05T16:49:33Z) - Brain in a Vat: On Missing Pieces Towards Artificial General
Intelligence in Large Language Models [83.63242931107638]
本稿では,知的エージェントの4つの特徴について述べる。
実世界の物体との活発な関わりは、概念的表現を形成するためのより堅牢な信号をもたらすと我々は主張する。
我々は、人工知能分野における将来的な研究の方向性を概説して結論付ける。
論文 参考訳(メタデータ) (2023-07-07T13:58:16Z) - Building Cooperative Embodied Agents Modularly with Large Language
Models [104.57849816689559]
本研究では, 分散制御, 生の知覚観察, コストのかかるコミュニケーション, 様々な実施環境下でインスタンス化された多目的タスクといった課題に対処する。
我々は,LLMの常識知識,推論能力,言語理解,テキスト生成能力を活用し,認知に触発されたモジュラーフレームワークにシームレスに組み込む。
C-WAH と TDW-MAT を用いた実験により, GPT-4 で駆動される CoELA が, 強い計画に基づく手法を超越し, 創発的な効果的なコミュニケーションを示すことを示した。
論文 参考訳(メタデータ) (2023-07-05T17:59:27Z) - ToM2C: Target-oriented Multi-agent Communication and Cooperation with
Theory of Mind [18.85252946546942]
心の理論(Theory of Mind、ToM)は、効果的なコミュニケーションと協力が可能な社会的に知的なエージェントを構築する。
このアイデアは、協調ナビゲーションとマルチセンサーターゲットカバレッジという、2つの典型的な目標指向型マルチエージェントタスクで実証される。
論文 参考訳(メタデータ) (2021-10-15T18:29:55Z) - Emergence of Pragmatics from Referential Game between Theory of Mind
Agents [64.25696237463397]
エージェントが手書きのルールを指定せずに「行間を読む」能力を自発的に学習するアルゴリズムを提案する。
協調型マルチエージェント教育状況における心の理論(ToM)を統合し,適応型強化学習(RL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-01-21T19:37:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。