論文の概要: Chow-Liu Ordering for Long-Context Reasoning in Chain-of-Agents
- arxiv url: http://arxiv.org/abs/2603.09835v1
- Date: Tue, 10 Mar 2026 15:57:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:24.440564
- Title: Chow-Liu Ordering for Long-Context Reasoning in Chain-of-Agents
- Title(参考訳): Chow-Liu Ordering for Long-Context Reasoning in Chain-of-Agents
- Authors: Naman Gupta, Vaibhav Singh, Arun Iyer, Kirankumar Shiragur, Pratham Grover, Ramakrishna B. Bairi, Ritabrata Maiti, Sankarshan Damle, Shachee Mishra Gupta, Rishikesh Maurya, Vageesh D. C,
- Abstract要約: Chain-of-Agents (CoA)は、入力をチャンクに分解し、順次処理することで、長いコンテキストクエリを処理する。
CoAは、前処理された証拠の有界な要約だけがエージェント間で渡される潜在状態分解によってこれを達成している。
我々は、よく知られたChow-Liu木を使って、強く関連するチャンクを優先順位付けする依存性構造を学ぶ。
- 参考スコア(独自算出の注目度): 13.497579460482399
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sequential multi-agent reasoning frameworks such as Chain-of-Agents (CoA) handle long-context queries by decomposing inputs into chunks and processing them sequentially using LLM-based worker agents that read from and update a bounded shared memory. From a probabilistic perspective, CoA aims to approximate the conditional distribution corresponding to a model capable of jointly reasoning over the entire long context. CoA achieves this through a latent-state factorization in which only bounded summaries of previously processed evidence are passed between agents. The resulting bounded-memory approximation introduces a lossy information bottleneck, making the final evidence state inherently dependent on the order in which chunks are processed. In this work, we study the problem of chunk ordering for long-context reasoning. We use the well-known Chow-Liu trees to learn a dependency structure that prioritizes strongly related chunks. Empirically, we show that a breadth-first traversal of the resulting tree yields chunk orderings that reduce information loss across agents and consistently outperform both default document-chunk ordering and semantic score-based ordering in answer relevance and exact-match accuracy across three long-context benchmarks.
- Abstract(参考訳): Chain-of-Agents (CoA)のような連続したマルチエージェント推論フレームワークは、入力をチャンクに分解し、境界共有メモリを読み取って更新するLLMベースのワーカーエージェントを使用して順次処理することで、長いコンテキストクエリを処理する。
確率論的観点から、CoAは長い文脈全体について共同で推論できるモデルに対応する条件分布を近似することを目的としている。
CoAは、前処理された証拠の有界な要約だけがエージェント間で渡される潜在状態分解によってこれを達成している。
結果として生じる境界メモリ近似は、損失の多い情報ボトルネックをもたらし、最終的な証拠状態は、チャンクが処理される順序に本質的に依存する。
本研究では,長文推論におけるチャンク順序付けの問題について検討する。
我々は、よく知られたChow-Liu木を使って、強く関連するチャンクを優先順位付けする依存性構造を学ぶ。
実験により,得られた木々の幅の第1次トラバースは,エージェント間の情報損失を低減し,デフォルトの文書チャンク順序とセマンティックスコアに基づく順序の両方を長文の3つのベンチマークで解答妥当性と精度で連続的に上回り,チャンク順序を導出することを示す。
関連論文リスト
- TeaRAG: A Token-Efficient Agentic Retrieval-Augmented Generation Framework [62.66056331998838]
TeaRAGは、検索内容と推論ステップの両方を圧縮できるトークン効率のエージェントRAGフレームワークである。
報奨関数は,過剰な推論ステップをペナルティ化しながら,知識マッチング機構によって知識満足度を評価する。
論文 参考訳(メタデータ) (2025-11-07T16:08:34Z) - ToM: Leveraging Tree-oriented MapReduce for Long-Context Reasoning in Large Language Models [107.86069298500855]
ToMは、長期コンテキスト推論のための新しいツリー指向MapReduceフレームワークである。
ToM は既存の分割・クエリー・フレームワークや検索拡張生成手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2025-11-01T10:43:58Z) - Decomposition-Enhanced Training for Post-Hoc Attributions In Language Models [64.49342399229529]
我々は、ポストホック帰属を推論問題として再編成し、回答を構成単位に分解し、それぞれ特定の文脈に結び付けることができると論じる。
DecompTuneは、モデルに中間的推論ステップとして解解分解を生成することを教えるポストトレーニング手法である。
DecompTuneは、広範な実験と改善を通じて、属性の品質を大幅に改善し、先行手法より優れ、最先端のフロンティアモデルに適合または超えている。
論文 参考訳(メタデータ) (2025-10-29T17:58:59Z) - COSMIR: Chain Orchestrated Structured Memory for Iterative Reasoning over Long Context [12.538401452822098]
アドホックメッセージを構造化メモリで置き換えるチェーンスタイルのフレームワークであるCOSMIRを紹介する。
エージェントは、固定されたマイクロサイクルによってチャンクを処理する: Extract, Infer, Refine, write all update to the shared memory。
その後、マネージャエージェントがメモリから直接最終回答を合成する。
論文 参考訳(メタデータ) (2025-10-06T08:10:04Z) - When Does Divide and Conquer Work for Long Context LLM? A Noise Decomposition Framework [39.66331560468973]
本稿では,Large Language Models (LLM) を長文に適用することの課題について検討する。
本稿では,長いコンテキストタスクの障害モードを,クロスチャンク依存(タスクノイズ),コンテキストサイズで大きくなる混乱(モデルノイズ),部分的な結果の完全統合(集約ノイズ)の3つのカテゴリに分類する理論的枠組みを提案する。
論文 参考訳(メタデータ) (2025-06-19T15:49:34Z) - Meta-Chunking: Learning Text Segmentation and Semantic Completion via Logical Perception [10.614437503578856]
本稿では,チャンキング品質を特に向上させるメタチャンキングフレームワークを提案する。
我々は不確実性に基づく2つの適応的チャンキング手法、すなわちPerplexity ChunkingとMargin Sampling Chunkingを設計する。
我々は,2段階の階層的要約生成プロセスと3段階のテキストチャンク書き換え手順を含むグローバル情報補償機構を確立する。
論文 参考訳(メタデータ) (2024-10-16T17:59:32Z) - CONFLARE: CONFormal LArge language model REtrieval [0.0]
Retrieval-augmented Generation (RAG)フレームワークは、大規模言語モデル(LLM)が知識ベースから関連する情報を検索し、応答を生成するコンテキストに組み込むことを可能にする。
RAGは、検索が必要な情報を応答生成のコンテキストとして識別できない場合、有効な応答を保証しない。
本稿では,RAGフレームワークにおける検索不確実性を定量化するために,共形予測を適用するための4段階のフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-04T02:58:21Z) - Walking Down the Memory Maze: Beyond Context Limit through Interactive
Reading [63.93888816206071]
我々は,長いコンテキストを要約ノードのツリーに処理する手法であるMemWalkerを紹介した。クエリを受信すると,モデルがこのツリーをナビゲートして関連する情報を検索し,十分な情報を収集すると応答する。
その結果,MemWalkerは,テキストを対話的に読み取る際の推論ステップを強調し,クエリに関連するテキストセグメントをピンポイントすることで,説明性の向上を図っている。
論文 参考訳(メタデータ) (2023-10-08T06:18:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。