論文の概要: United Minds or Isolated Agents? Exploring Coordination of LLMs under Cognitive Load Theory
- arxiv url: http://arxiv.org/abs/2506.06843v1
- Date: Sat, 07 Jun 2025 15:48:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 21:10:47.057605
- Title: United Minds or Isolated Agents? Exploring Coordination of LLMs under Cognitive Load Theory
- Title(参考訳): ユナイテッド・マインドと分離エージェント : 認知負荷理論に基づくLCMのコーディネーション
- Authors: HaoYang Shang, Xuan Liu, Zi Liang, Jie Zhang, Haibo Hu, Song Guo,
- Abstract要約: 大規模言語モデル(LLM)は、複雑で多面的なタスクに顕著なパフォーマンス天井を示す。
CoThinkerは認知的過負荷を軽減し、協調的な問題解決能力を高めるために設計された新しいフレームワークである。
- 参考スコア(独自算出の注目度): 14.058714578635222
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) exhibit a notable performance ceiling on complex, multi-faceted tasks, as they often fail to integrate diverse information or adhere to multiple constraints. We posit that such limitation arises when the demands of a task exceed the LLM's effective cognitive load capacity. This interpretation draws a strong analogy to Cognitive Load Theory (CLT) in cognitive science, which explains similar performance boundaries in the human mind, and is further supported by emerging evidence that reveals LLMs have bounded working memory characteristics. Building upon this CLT-grounded understanding, we introduce CoThinker, a novel LLM-based multi-agent framework designed to mitigate cognitive overload and enhance collaborative problem-solving abilities. CoThinker operationalizes CLT principles by distributing intrinsic cognitive load through agent specialization and managing transactional load via structured communication and a collective working memory. We empirically validate CoThinker on complex problem-solving tasks and fabricated high cognitive load scenarios, demonstrating improvements over existing multi-agent baselines in solution quality and efficiency. Our analysis reveals characteristic interaction patterns, providing insights into the emergence of collective cognition and effective load management, thus offering a principled approach to overcoming LLM performance ceilings.
- Abstract(参考訳): 大きな言語モデル(LLM)は、多種多様な情報の統合に失敗したり、複数の制約に従わなかったりするため、複雑で多面的なタスクに対して顕著なパフォーマンスの天井を示す。
課題の要求がLLMの効果的な認知負荷能力を超えると、そのような制限が生じると仮定する。
この解釈は認知科学において認知負荷理論(CLT)と強い類似性を示し、人間の心の類似した性能境界を説明し、LLMがワーキングメモリの特徴を束縛していることを示す新たな証拠によってさらに支持されている。
認知的過負荷を軽減し,協調的な問題解決能力を高めるために設計された,新しいLCMベースのマルチエージェントフレームワークであるCoThinkerを紹介する。
CoThinkerは、エージェントの専門化を通じて固有の認知負荷を分散し、構造化通信と集合ワーキングメモリを介してトランザクション負荷を管理することで、CLTの原則を運用する。
我々はCoThinkerを複雑な問題解決タスクと高認知負荷シナリオで実証的に検証し、ソリューションの品質と効率における既存のマルチエージェントベースラインの改善を実証した。
本分析では, 特徴的相互作用パターンを明らかにするとともに, 集団認識の出現と効果的な負荷管理について考察し, LLM性能天井を克服するための原則的アプローチを提案する。
関連論文リスト
- Chain of Methodologies: Scaling Test Time Computation without Training [77.85633949575046]
大規模言語モデル(LLM)は、トレーニングデータに対する詳細な洞察が不十分なため、複雑な推論タスクに苦しむことが多い。
本稿では,人間の方法論的洞察を統合することで構造的思考を強化するCoM(Chain of the CoM)フレームワークを紹介する。
論文 参考訳(メタデータ) (2025-06-08T03:46:50Z) - When LLMs Team Up: The Emergence of Collaborative Affective Computing [17.777196145195866]
本調査は, Affective Computing (AC) におけるLarge Language Models (LLMs) ベースのコラボレーションシステムの概要を概観することを目的とする。
LLMは、感情的な理解と生成タスクに対する統一的なアプローチを提供し、動的でリアルタイムな相互作用の可能性を高める。
この研究は、ACのLLMと協調的なインテリジェンスを体系的に探求する最初のものであり、人間のようなソーシャルインテリジェンスにアプローチするより強力なアプリケーションへの道を開いた。
論文 参考訳(メタデータ) (2025-06-02T14:00:54Z) - Revisiting Multi-Agent Debate as Test-Time Scaling: A Systematic Study of Conditional Effectiveness [50.29739337771454]
マルチエージェントの議論(MAD)アプローチは、モノリシックモデルに対する推論、堅牢性、多様な視点を提供する。
本稿では,MADを実験時間計算のスケーリング手法として概念化し,協調的な改良と多様な探索能力で区別する。
我々は、MADと強力なセルフエージェントテストタイムスケーリングベースラインを数学的推論と安全関連タスクに基づいて比較した総合的な実証的研究を行う。
論文 参考訳(メタデータ) (2025-05-29T01:02:55Z) - Review of Case-Based Reasoning for LLM Agents: Theoretical Foundations, Architectural Components, and Cognitive Integration [0.0]
ケースベース推論(CBR)は、過去の経験を参照することによって、新しい問題を解決する戦略である。
本稿では、過去の経験を参照して新しい問題を解決する戦略であるケースベース推論(CBR)を大規模言語モデルに組み込む方法について考察する。
論文 参考訳(メタデータ) (2025-04-09T14:51:02Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - Cantor: Inspiring Multimodal Chain-of-Thought of MLLM [83.6663322930814]
視覚的コンテキスト獲得と論理的推論の集約は、視覚的推論タスクに取り組む上で重要であると我々は主張する。
我々はCantorと呼ばれる革新的なマルチモーダルCoTフレームワークを提案し、その特徴は知覚決定アーキテクチャである。
提案手法の有効性を実証し,マルチモーダルCoT性能の大幅な向上を示した。
論文 参考訳(メタデータ) (2024-04-24T17:59:48Z) - Theory of Mind for Multi-Agent Collaboration via Large Language Models [5.2767999863286645]
本研究では,多エージェント協調型テキストゲームにおけるLarge Language Models (LLMs) ベースのエージェントを,理論オブマインド (ToM) 推論タスクを用いて評価する。
LLMをベースとしたエージェント間の創発的協調行動と高次マインド理論の実証を行った。
論文 参考訳(メタデータ) (2023-10-16T07:51:19Z) - Corex: Pushing the Boundaries of Complex Reasoning through Multi-Model Collaboration [83.4031923134958]
Corexは,大規模言語モデルを自律エージェントに変換する,新たな汎用戦略スイートだ。
人間の振る舞いにインスパイアされたCorexは、Debate、Review、Retrieveモードといった多様なコラボレーションパラダイムによって構成されている。
我々は,複数のLDMを協調的に演奏することで,既存の手法に比べて性能が著しく向上することが実証された。
論文 参考訳(メタデータ) (2023-09-30T07:11:39Z) - Unleashing the Emergent Cognitive Synergy in Large Language Models: A Task-Solving Agent through Multi-Persona Self-Collaboration [116.09561564489799]
Solo Performance Promptingは、複数のペルソナと多ターンの自己コラボレーションをすることで、単一のLCMを認知的シナジストに変換する。
認知シナジスト(英: Cognitive Synergist)は、複雑なタスクにおける問題解決を強化するために、複数の心の強みと知識を協調的に結合するインテリジェントエージェントである。
より詳細な分析により,LLMに複数の微粒なペルソナを割り当てることによって,単一あるいは固定数のペルソナに比べて問題解決能力が向上することが示された。
論文 参考訳(メタデータ) (2023-07-11T14:45:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。