論文の概要: United Minds or Isolated Agents? Exploring Coordination of LLMs under Cognitive Load Theory
- arxiv url: http://arxiv.org/abs/2506.06843v1
- Date: Sat, 07 Jun 2025 15:48:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 21:10:47.057605
- Title: United Minds or Isolated Agents? Exploring Coordination of LLMs under Cognitive Load Theory
- Title(参考訳): ユナイテッド・マインドと分離エージェント : 認知負荷理論に基づくLCMのコーディネーション
- Authors: HaoYang Shang, Xuan Liu, Zi Liang, Jie Zhang, Haibo Hu, Song Guo,
- Abstract要約: 大規模言語モデル(LLM)は、複雑で多面的なタスクに顕著なパフォーマンス天井を示す。
CoThinkerは認知的過負荷を軽減し、協調的な問題解決能力を高めるために設計された新しいフレームワークである。
- 参考スコア(独自算出の注目度): 14.058714578635222
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) exhibit a notable performance ceiling on complex, multi-faceted tasks, as they often fail to integrate diverse information or adhere to multiple constraints. We posit that such limitation arises when the demands of a task exceed the LLM's effective cognitive load capacity. This interpretation draws a strong analogy to Cognitive Load Theory (CLT) in cognitive science, which explains similar performance boundaries in the human mind, and is further supported by emerging evidence that reveals LLMs have bounded working memory characteristics. Building upon this CLT-grounded understanding, we introduce CoThinker, a novel LLM-based multi-agent framework designed to mitigate cognitive overload and enhance collaborative problem-solving abilities. CoThinker operationalizes CLT principles by distributing intrinsic cognitive load through agent specialization and managing transactional load via structured communication and a collective working memory. We empirically validate CoThinker on complex problem-solving tasks and fabricated high cognitive load scenarios, demonstrating improvements over existing multi-agent baselines in solution quality and efficiency. Our analysis reveals characteristic interaction patterns, providing insights into the emergence of collective cognition and effective load management, thus offering a principled approach to overcoming LLM performance ceilings.
- Abstract(参考訳): 大きな言語モデル(LLM)は、多種多様な情報の統合に失敗したり、複数の制約に従わなかったりするため、複雑で多面的なタスクに対して顕著なパフォーマンスの天井を示す。
課題の要求がLLMの効果的な認知負荷能力を超えると、そのような制限が生じると仮定する。
この解釈は認知科学において認知負荷理論(CLT)と強い類似性を示し、人間の心の類似した性能境界を説明し、LLMがワーキングメモリの特徴を束縛していることを示す新たな証拠によってさらに支持されている。
認知的過負荷を軽減し,協調的な問題解決能力を高めるために設計された,新しいLCMベースのマルチエージェントフレームワークであるCoThinkerを紹介する。
CoThinkerは、エージェントの専門化を通じて固有の認知負荷を分散し、構造化通信と集合ワーキングメモリを介してトランザクション負荷を管理することで、CLTの原則を運用する。
我々はCoThinkerを複雑な問題解決タスクと高認知負荷シナリオで実証的に検証し、ソリューションの品質と効率における既存のマルチエージェントベースラインの改善を実証した。
本分析では, 特徴的相互作用パターンを明らかにするとともに, 集団認識の出現と効果的な負荷管理について考察し, LLM性能天井を克服するための原則的アプローチを提案する。
関連論文リスト
- Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - Corex: Pushing the Boundaries of Complex Reasoning through Multi-Model Collaboration [83.4031923134958]
Corexは,大規模言語モデルを自律エージェントに変換する,新たな汎用戦略スイートだ。
人間の振る舞いにインスパイアされたCorexは、Debate、Review、Retrieveモードといった多様なコラボレーションパラダイムによって構成されている。
我々は,複数のLDMを協調的に演奏することで,既存の手法に比べて性能が著しく向上することが実証された。
論文 参考訳(メタデータ) (2023-09-30T07:11:39Z) - Unleashing the Emergent Cognitive Synergy in Large Language Models: A Task-Solving Agent through Multi-Persona Self-Collaboration [116.09561564489799]
Solo Performance Promptingは、複数のペルソナと多ターンの自己コラボレーションをすることで、単一のLCMを認知的シナジストに変換する。
認知シナジスト(英: Cognitive Synergist)は、複雑なタスクにおける問題解決を強化するために、複数の心の強みと知識を協調的に結合するインテリジェントエージェントである。
より詳細な分析により,LLMに複数の微粒なペルソナを割り当てることによって,単一あるいは固定数のペルソナに比べて問題解決能力が向上することが示された。
論文 参考訳(メタデータ) (2023-07-11T14:45:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。