論文の概要: Graph of Agents: Principled Long Context Modeling by Emergent Multi-Agent Collaboration
- arxiv url: http://arxiv.org/abs/2509.21848v1
- Date: Fri, 26 Sep 2025 04:15:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.172872
- Title: Graph of Agents: Principled Long Context Modeling by Emergent Multi-Agent Collaboration
- Title(参考訳): エージェントのグラフ:創発的マルチエージェントコラボレーションによる基本的ロングコンテキストモデリング
- Authors: Taejong Joo, Shu Ishida, Ivan Sosnovik, Bryan Lim, Sahand Rezaei-Shoshtari, Adam Gaier, Robert Giaquinto,
- Abstract要約: 本稿では,モデルに依存しない長期コンテキストモデリング問題を圧縮問題として定式化するフレームワークを提案する。
この目的を最大化する入力依存の協調構造を動的に構築するグラフ・オブ・エージェント(GoA)を提案する。
GoAはLongBenchの128KコンテキストウィンドウであるLlama 3.1 8Bを超え、有効コンテキスト長が劇的に増加した。
- 参考スコア(独自算出の注目度): 9.151759069858924
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As a model-agnostic approach to long context modeling, multi-agent systems can process inputs longer than a large language model's context window without retraining or architectural modifications. However, their performance often heavily relies on hand-crafted multi-agent collaboration strategies and prompt engineering, which limit generalizability. In this work, we introduce a principled framework that formalizes the model-agnostic long context modeling problem as a compression problem, yielding an information-theoretic compression objective. Building on this framework, we propose Graph of Agents (GoA), which dynamically constructs an input-dependent collaboration structure that maximizes this objective. For Llama 3.1 8B and Qwen3 8B across six document question answering benchmarks, GoA improves the average $F_1$ score of retrieval-augmented generation by 5.7\% and a strong multi-agent baseline using a fixed collaboration structure by 16.35\%, respectively. Even with only a 2K context window, GoA surpasses the 128K context window Llama 3.1 8B on LongBench, showing a dramatic increase in effective context length. Our source code is available at https://github.com/tjoo512/graph-of-agents.
- Abstract(参考訳): ロングコンテキストモデリングに対するモデルに依存しないアプローチとして、マルチエージェントシステムは、トレーニングやアーキテクチャの変更なしに、大きな言語モデルのコンテキストウィンドウよりも長い入力を処理できる。
しかし、そのパフォーマンスは手作りのマルチエージェントコラボレーション戦略と、一般化性を制限するエンジニアリングの促進に大きく依存することが多い。
本研究では,モデルに依存しない長期コンテキストモデリング問題を圧縮問題として定式化し,情報理論的な圧縮目標を導出するフレームワークを提案する。
このフレームワーク上に構築されたグラフ・オブ・エージェント(GoA)は,この目的を最大化する入力依存の協調構造を動的に構築する。
6つの文書質問応答ベンチマークにおけるLlama 3.1 8BとQwen3 8Bでは、GoAは、それぞれ16.35\%の固定的なコラボ構造を用いて、検索拡張生成の平均F_1$スコアを5.7\%、強力なマルチエージェントベースラインを改善している。
2Kコンテキストウィンドウだけで、GoAはLongBenchの128KコンテキストウィンドウであるLlama 3.1 8Bを超え、有効コンテキスト長が劇的に増加した。
ソースコードはhttps://github.com/tjoo512/graph-of-agentsで公開しています。
関連論文リスト
- Tree of Agents: Improving Long-Context Capabilities of Large Language Models through Multi-Perspective Reasoning [11.045096250408067]
Tree of Agents(TOA)は、インプットを独立したエージェントによって処理されたチャンクに分割するマルチエージェント推論フレームワークである。
TOAは、エージェントが複数のパースペクティブな理解のために異なる推論順序を探索することを可能にする。
処理効率を向上させるため,プレフィックスハッシュキャッシュと適応型プルーニング戦略を取り入れた。
論文 参考訳(メタデータ) (2025-09-08T08:34:02Z) - Visual Document Understanding and Question Answering: A Multi-Agent Collaboration Framework with Test-Time Scaling [83.78874399606379]
テスト時間スケーリングを備えたマルチエージェント協調フレームワークであるMACTを提案する。
4つの異なる小規模エージェントから構成され、明確に定義された役割と効果的なコラボレーションがある。
一般および数学的タスクの能力を犠牲にすることなく、より小さなパラメータスケールで優れた性能を示す。
論文 参考訳(メタデータ) (2025-08-05T12:52:09Z) - SitEmb-v1.5: Improved Context-Aware Dense Retrieval for Semantic Association and Long Story Comprehension [77.93156509994994]
本研究では,検索性能を向上させるために,より広いコンテキストウインドウに条件付きで短いチャンクを表現する方法を示す。
既存の埋め込みモデルは、そのような場所のコンテキストを効果的にエンコードするのに十分な装備がない。
我々の手法は、最先端の埋め込みモデルよりも大幅に優れている。
論文 参考訳(メタデータ) (2025-08-03T23:59:31Z) - Assemble Your Crew: Automatic Multi-agent Communication Topology Design via Autoregressive Graph Generation [72.44384066166147]
大規模言語モデル(LLM)に基づくマルチエージェントシステム(MAS)は、多様な領域にわたる複雑な問題を扱うための強力なソリューションとして登場した。
既存のアプローチは、事前に定義されたエージェントセットとハードコードされた相互作用構造を持つテンプレートグラフ修正パラダイムに依存しているため、基本的に制限されている。
協調グラフをスクラッチから構築することで、このパラダイムを運用する新しい自己回帰モデルであるARG-Designerを提案する。
論文 参考訳(メタデータ) (2025-07-24T09:17:41Z) - Comparative Analysis of AI Agent Architectures for Entity Relationship Classification [1.6887793771613606]
本研究では,3つの異なるAIエージェントアーキテクチャの比較分析を行い,関係分類を行う。
エージェントアーキテクチャは,(1)反射的自己評価,(2)階層的タスク分解,(3)新しいマルチエージェント動的サンプル生成機構を含む。
実験により,マルチエージェントの協調が標準のショットプロンプトより一貫して優れていることが実証された。
論文 参考訳(メタデータ) (2025-06-03T04:19:47Z) - KG-QAGen: A Knowledge-Graph-Based Framework for Systematic Question Generation and Long-Context LLM Evaluation [3.618621510356872]
KG-QAGenは、複数の複雑性レベルでQAペアを抽出するフレームワークである。
20,139のQAペアのデータセットを構築し、その一部をオープンソース化する。
我々は、13のプロプライエタリかつオープンソースのLCMを評価し、最高の性能のモデルでさえ、セットベース比較に苦戦していることを観察する。
論文 参考訳(メタデータ) (2025-05-18T16:46:39Z) - Evaluating Long Range Dependency Handling in Code Generation LLMs [3.1767625261233046]
コンテクストウィンドウ内の複数ステップのキー検索タスクを最大8kトークンまで長値化することで,複数のコード生成モデルが長距離依存を処理可能であることを解析する。
関数がプロンプトで後で定義される別の関数を参照する場合、多くのモデル(最大2倍)で性能が著しく低下することがわかった。
また,スライディングウィンドウアテンション機構を用いたモデルでは,単一ウィンドウのサイズ以上の参照処理が困難であることも確認した。
論文 参考訳(メタデータ) (2024-07-23T02:45:22Z) - ChatQA 2: Bridging the Gap to Proprietary LLMs in Long Context and RAG Capabilities [53.97515452727115]
ChatQA 2は、128Kコンテキストウィンドウを備えたLlama 3.0ベースのモデルである。
Llama3-70Bベースのコンテキストウィンドウを8Kから128Kまで拡張するためのトレーニングレシピを提案する。
RAGを用いた長文LLMの性能は,多数のチャンクを検索した場合に向上することがわかった。
論文 参考訳(メタデータ) (2024-07-19T17:35:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。