論文の概要: Brain-Inspired Graph Multi-Agent Systems for LLM Reasoning
- arxiv url: http://arxiv.org/abs/2603.15371v1
- Date: Mon, 16 Mar 2026 14:48:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 18:28:58.505008
- Title: Brain-Inspired Graph Multi-Agent Systems for LLM Reasoning
- Title(参考訳): LLM推論のための脳誘発グラフマルチエージェントシステム
- Authors: Guangfu Hao, Yuming Dai, Xianzhe Qin, Shan Yu,
- Abstract要約: 拡張チェーン・オブ・シント機構を備えたLRM(Large Reasoning Models)は,標準LLMよりも優れた性能を示す。
しかし、どちらのモデルも十分に複雑なタスクで精度の低下に悩まされている。
人間の認知のグローバルワークスペース理論に着想を得て,ブレインインインスパイアされたグラフマルチエージェントシステムを提案する。
- 参考スコア(独自算出の注目度): 10.378814371603726
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have demonstrated remarkable capabilities across a wide range of language tasks, yet complex multi-step reasoning remains a fundamental challenge. While Large Reasoning Models (LRMs) equipped with extended chain-of-thought mechanisms demonstrate improved performance over standard LLMs, both model types still suffer from accuracy collapse on sufficiently complex tasks, suggesting that scaling model-level reasoning alone is insufficient. Inspired by the global workspace theory of human cognition, we propose Brain-Inspired Graph Multi-Agent Systems (BIGMAS), in which specialized LLM agents are organized as nodes in a dynamically constructed directed graph and coordinate exclusively through a centralized shared workspace. A problem-adaptive GraphDesigner constructs task-specific agent topologies, while a global Orchestrator leverages the complete shared state for routing decisions, overcoming the local-view bottleneck of reactive approaches. Experiments on Game24, Six Fives, and Tower of London across six frontier LLMs demonstrate that BIGMAS consistently improves reasoning performance for both standard LLMs and LRMs, outperforming existing multi-agent baselines including ReAct and Tree of Thoughts, showing that multi-agent architectural design provides complementary gains orthogonal to model-level reasoning enhancements.
- Abstract(参考訳): 大規模言語モデル(LLM)は、幅広い言語タスクにおいて顕著な能力を示してきたが、複雑な多段階推論は依然として根本的な課題である。
拡張チェーン・オブ・シント機構を備えたLarge Reasoning Models (LRMs) は、標準LLMよりも性能が向上したことを示しているが、どちらのモデルも十分に複雑なタスクにおいて精度の低下に苦しむため、モデルレベルの推論のスケーリングだけでは不十分である。
人間の認知のグローバルなワークスペース理論に触発されて、我々はBIGMAS(Brain-Inspired Graph Multi-Agent Systems)を提案し、特殊なLSMエージェントを動的に構築された有向グラフのノードとして編成し、集中的な共有ワークスペースを通してのみコーディネートする。
問題適応型GraphDesignerはタスク固有のエージェントトポロジを構築し、グローバルオーケストレータはルーティング決定の完全な共有状態を利用して、リアクティブアプローチのローカルビューボトルネックを克服する。
ゲーム24、シックスファイブズ、ロンドンタワーでの6つのフロンティアLCMによる実験では、BIGMASは標準LLMとLRMの両方の推論性能を一貫して改善し、ReActやTree of Thoughtsといった既存のマルチエージェントベースラインよりも優れており、マルチエージェントアーキテクチャ設計はモデルレベルの推論強化に直交する補完的な利点を提供することを示している。
関連論文リスト
- SYMPHONY: Synergistic Multi-agent Planning with Heterogeneous Language Model Assembly [6.444704310331922]
本稿では,新しいマルチエージェント・プランニング・フレームワークであるSYMPHONY(Synergistic Multi-Adnt Planning with Heterogeneous langauge model assembly)を提案する。
エージェント間の多様な推論パターンを活用することで、SYMPHONYはロールアウトの多様性を高め、より効果的な探索を促進する。
実験結果から,SYMPHONYはコンシューマグレードのハードウェア上にデプロイ可能なオープンソースLLMをインスタンス化した場合でも,高い性能を発揮することが示された。
論文 参考訳(メタデータ) (2026-01-30T06:26:34Z) - Think Then Embed: Generative Context Improves Multimodal Embedding [51.76690812535934]
本稿では,ユニバーサル・マルチモーダル・エンベディング (UME) のためのThink-Then-Embed (TTE) フレームワークを提案する。
強力なMLLM推論器を利用することで、MMEB-V2ベンチマークで最先端のパフォーマンスを達成し、大規模な社内データセットでトレーニングされたプロプライエタリモデルを上回った。
論文 参考訳(メタデータ) (2025-10-06T16:53:56Z) - AMAS: Adaptively Determining Communication Topology for LLM-based Multi-Agent System [19.336020954831202]
大規模言語モデル (LLM) は自然言語処理能力に革命をもたらし、産業問題解決のための自律型マルチエージェントシステム (MAS) として実践的に実装されている。
我々は、新しい動的グラフデザイナを通じてLLMベースのMASを再定義するパラダイムシフトフレームワークであるAMASを紹介する。
AMASは個々の入力の固有の特性を利用して、タスク最適化エージェント経路を介してインテリジェントにクエリトラジェクトリをクエリする。
論文 参考訳(メタデータ) (2025-10-02T02:50:22Z) - GRIL: Knowledge Graph Retrieval-Integrated Learning with Large Language Models [59.72897499248909]
本稿では,Large Language Models (LLM) を用いたエンドツーエンド学習のための新しいグラフ検索手法を提案する。
抽出したサブグラフでは, 構造的知識と意味的特徴をそれぞれ軟式トークンと言語化グラフで符号化し, LLMに注入する。
提案手法は、複雑な推論タスクに対する結合グラフ-LLM最適化の強みを検証し、最先端の性能を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-20T02:38:00Z) - Multi-Agent Collaboration via Evolving Orchestration [55.574417128944226]
大規模言語モデル(LLM)は、様々な下流タスクで顕著な成果を上げているが、そのモノリシックな性質は複雑な問題解決におけるスケーラビリティと効率を制限している。
LLMに基づくマルチエージェントコラボレーションのためのパウチスタイルのパラダイムを提案し,タスク状態の進化に応じて,中央集権的なオーケストレータ("puppeteer")がエージェント("puppets")を動的に指示する。
クローズドドメインおよびオープンドメインシナリオの実験により,この手法は計算コストを低減し,優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2025-05-26T07:02:17Z) - ReMA: Learning to Meta-think for LLMs with Multi-Agent Reinforcement Learning [53.817538122688944]
Reinforced Meta-thinking Agents (ReMA) を導入し,Large Language Models (LLMs) の推論からメタ思考行動を求める。
ReMAは、推論プロセスを2つの階層的なエージェントに分解する。戦略上の監視と計画を生成するハイレベルなメタ思考エージェントと、詳細な実行のための低レベルな推論エージェントである。
単ターン実験による実験結果から、ReMAは複雑な推論タスクにおいて単エージェントRLベースラインよりも優れることが示された。
論文 参考訳(メタデータ) (2025-03-12T16:05:31Z) - Unconstrained Model Merging for Enhanced LLM Reasoning [42.079040543428036]
複数のエキスパートモデルをひとつの大きな言語モデルにマージする可能性について検討する。
等質なモデルアーキテクチャと異質なモデルアーキテクチャの両方に対応可能な,制約のないモデルマージフレームワークを提案する。
7つのベンチマークと9つの推論最適化LDMで、推論がマージから出現する重要な発見を明らかにする。
論文 参考訳(メタデータ) (2024-10-17T16:04:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。