論文の概要: GraphCogent: Mitigating LLMs' Working Memory Constraints via Multi-Agent Collaboration in Complex Graph Understanding
- arxiv url: http://arxiv.org/abs/2508.12379v2
- Date: Tue, 30 Sep 2025 14:56:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.071299
- Title: GraphCogent: Mitigating LLMs' Working Memory Constraints via Multi-Agent Collaboration in Complex Graph Understanding
- Title(参考訳): GraphCogent: 複雑なグラフ理解におけるマルチエージェントコラボレーションによるLLMのワーキングメモリ制約の緩和
- Authors: Rongzheng Wang, Shuang Liang, Qizhi Chen, Yihong Huang, Muquan Li, Yizhuo Ma, Dongyang Zhang, Ke Qin, Man-Fai Leung,
- Abstract要約: 大規模言語モデル(LLM)は、小規模なグラフ推論タスクでは有望な性能を示すが、複雑なクエリで現実のグラフを扱うと失敗する。
グラフ推論を特殊な認知プロセス(センス、バッファ、実行)に分解する協調エージェントフレームワークであるGraphCogentを提案する。
- 参考スコア(独自算出の注目度): 13.356521655409422
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) show promising performance on small-scale graph reasoning tasks but fail when handling real-world graphs with complex queries. This phenomenon arises from LLMs' working memory constraints, which result in their inability to retain long-range graph topology over extended contexts while sustaining coherent multi-step reasoning. However, real-world graphs are often structurally complex, such as Web, Transportation, Social, and Citation networks. To address these limitations, we propose GraphCogent, a collaborative agent framework inspired by human Working Memory Model that decomposes graph reasoning into specialized cognitive processes: sense, buffer, and execute. The framework consists of three modules: Sensory Module standardizes diverse graph text representations via subgraph sampling, Buffer Module integrates and indexes graph data across multiple formats, and Execution Module combines tool calling and tool creation for efficient reasoning. We also introduce Graph4real, a comprehensive benchmark that contains four domains of real-world graphs (Web, Transportation, Social, and Citation) to evaluate LLMs' graph reasoning capabilities. Our Graph4real covers 21 different graph reasoning tasks, categorized into three types (Structural Querying, Algorithmic Reasoning, and Predictive Modeling tasks), with graph scales up to 10 times larger than existing benchmarks. Experiments show that Llama3.1-8B based GraphCogent achieves a 50% improvement over massive-scale LLMs like DeepSeek-R1 (671B). Compared to state-of-the-art agent-based baseline, our framework outperforms by 20% in accuracy while reducing token usage by 80% for in-toolset tasks and 30% for out-toolset tasks. Code will be available after review.
- Abstract(参考訳): 大規模言語モデル(LLM)は、小規模なグラフ推論タスクでは有望な性能を示すが、複雑なクエリで現実のグラフを扱うと失敗する。
この現象は、LLMsの動作メモリの制約から発生し、コヒーレントな多段階推論を維持しながら、拡張コンテキスト上での長距離グラフトポロジーを維持することができない。
しかし、実世界のグラフは、Web、Transport、Social、Citationネットワークのような構造的に複雑であることが多い。
このような制限に対処するため,人間のワーキングメモリモデルにインスパイアされた協調エージェントフレームワークであるGraphCogentを提案する。
Sensory Moduleは、サブグラフサンプリングを通じて多様なグラフテキスト表現を標準化し、Buffer Moduleはグラフデータを複数のフォーマットで統合してインデックス化し、Execution Moduleは効率的な推論のためにツール呼び出しとツール作成を組み合わせる。
また、LLMのグラフ推論能力を評価するために、現実世界のグラフ(Web、Transport、Social、Citation)の4つのドメインを含む包括的なベンチマークであるGraph4realを紹介した。
Graph4realは、21種類のグラフ推論タスクをカバーし、構造化クエリ、アルゴリズム推論、予測モデリングタスクの3つのタイプに分類されます。
実験によると、Llama3.1-8BベースのGraphCogentはDeepSeek-R1 (671B)のような大規模LLMよりも50%改善されている。
最先端のエージェントベースベースラインと比較して,我々のフレームワークは,トークン使用率を80%,アウトツール処理率を30%削減し,精度を20%向上させる。
コードはレビュー後に利用可能になる。
関連論文リスト
- Scalable and Accurate Graph Reasoning with LLM-based Multi-Agents [27.4884498301785]
GraphAgent-Reasonerは、明示的で正確なグラフ推論のための微調整不要なフレームワークである。
分散グラフ計算理論にインスパイアされた我々のフレームワークは、グラフ問題を複数のエージェント間で分散される小さなノード中心のタスクに分解する。
本フレームワークは,Webページ重要度分析などの実世界のグラフ推論アプリケーションを扱う能力を示す。
論文 参考訳(メタデータ) (2024-10-07T15:34:14Z) - Can Large Language Models Analyze Graphs like Professionals? A Benchmark, Datasets and Models [88.4320775961431]
グラフを処理するために,大規模言語モデル(LLM)のベンチマークであるProGraphを導入する。
その結果,現在のLCMの性能は不満足であり,最高のモデルでは36%の精度しか達成できないことがわかった。
本研究では,6つの広く使用されているグラフライブラリに基づいて,クローリングされたドキュメントと自動生成コードを含むLLM4Graphデータセットを提案する。
論文 参考訳(メタデータ) (2024-09-29T11:38:45Z) - Graph Chain-of-Thought: Augmenting Large Language Models by Reasoning on Graphs [60.71360240206726]
大規模言語モデル(LLM)は、特に知識集約的なタスクにおいて幻覚に悩まされる。
既存の研究は、外部知識コーパスから取得した個々のテキスト単位でLLMを拡張することを提案する。
本稿では,グラフを反復的に推論することで,LLMをグラフで拡張するためのGraph Chain-of-thinkt (Graph-CoT) というフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-10T15:41:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。