論文の概要: GraphCogent: Overcoming LLMs' Working Memory Constraints via Multi-Agent Collaboration in Complex Graph Understanding
- arxiv url: http://arxiv.org/abs/2508.12379v1
- Date: Sun, 17 Aug 2025 14:28:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.70909
- Title: GraphCogent: Overcoming LLMs' Working Memory Constraints via Multi-Agent Collaboration in Complex Graph Understanding
- Title(参考訳): GraphCogent: 複雑なグラフ理解におけるマルチエージェントコラボレーションによるLLMのワーキングメモリ制約の克服
- Authors: Rongzheng Wang, Qizhi Chen, Yihong Huang, Yizhuo Ma, Muquan Li, Jiakai Li, Ke Qin, Guangchun Luo, Shuang Liang,
- Abstract要約: 大規模言語モデル(LLM)は、小規模なグラフ推論タスクでは有望な性能を示すが、複雑なクエリで現実のグラフを扱うと失敗する。
グラフ推論を特殊な認知プロセス(センス、バッファ、実行)に分解する協調エージェントフレームワークであるGraphCogentを提案する。
- 参考スコア(独自算出の注目度): 8.297882768573427
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) show promising performance on small-scale graph reasoning tasks but fail when handling real-world graphs with complex queries. This phenomenon stems from LLMs' inability to effectively process complex graph topology and perform multi-step reasoning simultaneously. To address these limitations, we propose GraphCogent, a collaborative agent framework inspired by human Working Memory Model that decomposes graph reasoning into specialized cognitive processes: sense, buffer, and execute. The framework consists of three modules: Sensory Module standardizes diverse graph text representations via subgraph sampling, Buffer Module integrates and indexes graph data across multiple formats, and Execution Module combines tool calling and model generation for efficient reasoning. We also introduce Graph4real, a comprehensive benchmark contains with four domains of real-world graphs (Web, Social, Transportation, and Citation) to evaluate LLMs' graph reasoning capabilities. Our Graph4real covers 21 different graph reasoning tasks, categorized into three types (Structural Querying, Algorithmic Reasoning, and Predictive Modeling tasks), with graph scales that are 10 times larger than existing benchmarks. Experiments show that Llama3.1-8B based GraphCogent achieves a 50% improvement over massive-scale LLMs like DeepSeek-R1 (671B). Compared to state-of-the-art agent-based baseline, our framework outperforms by 20% in accuracy while reducing token usage by 80% for in-toolset tasks and 30% for out-toolset tasks. Code will be available after review.
- Abstract(参考訳): 大規模言語モデル(LLM)は、小規模なグラフ推論タスクでは有望な性能を示すが、複雑なクエリで現実のグラフを扱うと失敗する。
この現象は、LLMが複雑なグラフトポロジーを効果的に処理し、同時に多段階の推論を行うことができないことに由来する。
このような制限に対処するため,人間のワーキングメモリモデルにインスパイアされた協調エージェントフレームワークであるGraphCogentを提案する。
Sensory Moduleは、サブグラフサンプリングを通じて多様なグラフテキスト表現を標準化し、Buffer Moduleは複数のフォーマットでグラフデータを統合インデックスし、Execution Moduleは効率的な推論のためにツール呼び出しとモデル生成を組み合わせる。
また、LLMのグラフ推論能力を評価するために、実世界のグラフ(Web、ソーシャル、トランスポーテーション、Citation)の4つのドメインを含む総合的なベンチマークであるGraph4realを紹介した。
Graph4realは、21の異なるグラフ推論タスクをカバーし、既存のベンチマークの10倍のグラフスケールを持つ3つのタイプ(構造化クエリ、アルゴリズム推論、予測モデリングタスク)に分類されます。
実験によると、Llama3.1-8BベースのGraphCogentはDeepSeek-R1 (671B)のような大規模LLMよりも50%改善されている。
最先端のエージェントベースベースラインと比較して,我々のフレームワークは,トークン使用率を80%,アウトツール処理率を30%削減し,精度を20%向上させる。
コードはレビュー後に利用可能になる。
関連論文リスト
- Scalable and Accurate Graph Reasoning with LLM-based Multi-Agents [27.4884498301785]
GraphAgent-Reasonerは、明示的で正確なグラフ推論のための微調整不要なフレームワークである。
分散グラフ計算理論にインスパイアされた我々のフレームワークは、グラフ問題を複数のエージェント間で分散される小さなノード中心のタスクに分解する。
本フレームワークは,Webページ重要度分析などの実世界のグラフ推論アプリケーションを扱う能力を示す。
論文 参考訳(メタデータ) (2024-10-07T15:34:14Z) - Can Large Language Models Analyze Graphs like Professionals? A Benchmark, Datasets and Models [88.4320775961431]
グラフを処理するために,大規模言語モデル(LLM)のベンチマークであるProGraphを導入する。
その結果,現在のLCMの性能は不満足であり,最高のモデルでは36%の精度しか達成できないことがわかった。
本研究では,6つの広く使用されているグラフライブラリに基づいて,クローリングされたドキュメントと自動生成コードを含むLLM4Graphデータセットを提案する。
論文 参考訳(メタデータ) (2024-09-29T11:38:45Z) - Graph Chain-of-Thought: Augmenting Large Language Models by Reasoning on Graphs [60.71360240206726]
大規模言語モデル(LLM)は、特に知識集約的なタスクにおいて幻覚に悩まされる。
既存の研究は、外部知識コーパスから取得した個々のテキスト単位でLLMを拡張することを提案する。
本稿では,グラフを反復的に推論することで,LLMをグラフで拡張するためのGraph Chain-of-thinkt (Graph-CoT) というフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-10T15:41:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。