論文の概要: COSMIR: Chain Orchestrated Structured Memory for Iterative Reasoning over Long Context
- arxiv url: http://arxiv.org/abs/2510.04568v1
- Date: Mon, 06 Oct 2025 08:10:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.742845
- Title: COSMIR: Chain Orchestrated Structured Memory for Iterative Reasoning over Long Context
- Title(参考訳): COSMIR:長いコンテキストに対する反復推論のためのチェーンオーケストレーション構造化メモリ
- Authors: Naman Gupta, Shreeyash Gowaikar, Arun Iyer, Kirankumar Shiragur, Ramakrishna B Bairi, Rishikesh Maurya, Ritabrata Maiti, Sankarshan Damle, Shachee Mishra Gupta,
- Abstract要約: アドホックメッセージを構造化メモリで置き換えるチェーンスタイルのフレームワークであるCOSMIRを紹介する。
エージェントは、固定されたマイクロサイクルによってチャンクを処理する: Extract, Infer, Refine, write all update to the shared memory。
その後、マネージャエージェントがメモリから直接最終回答を合成する。
- 参考スコア(独自算出の注目度): 12.538401452822098
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reasoning over very long inputs remains difficult for large language models (LLMs). Common workarounds either shrink the input via retrieval (risking missed evidence), enlarge the context window (straining selectivity), or stage multiple agents to read in pieces. In staged pipelines (e.g., Chain of Agents, CoA), free-form summaries passed between agents can discard crucial details and amplify early mistakes. We introduce COSMIR (Chain Orchestrated Structured Memory for Iterative Reasoning), a chain-style framework that replaces ad hoc messages with a structured memory. A Planner agent first turns a user query into concrete, checkable sub-questions. worker agents process chunks via a fixed micro-cycle: Extract, Infer, Refine, writing all updates to the shared memory. A Manager agent then Synthesizes the final answer directly from the memory. This preserves step-wise read-then-reason benefits while changing both the communication medium (structured memory) and the worker procedure (fixed micro-cycle), yielding higher faithfulness, better long-range aggregation, and auditability. On long-context QA from the HELMET suite, COSMIR reduces propagation-stage information loss and improves accuracy over a CoA baseline.
- Abstract(参考訳): 非常に長い入力に対する推論は、大きな言語モデル(LLM)では難しいままである。
一般的な回避策は、検索による入力を縮小するか(証拠の欠落)、コンテキストウィンドウを拡大するか(選択性を制限する)、複数のエージェントを段階的に読み込むかのどちらかである。
ステージ化されたパイプライン(例えば、エージェントのチェーン、CoA)では、エージェント間で渡される自由形式の要約は、重要な詳細を破棄し、初期のミスを増幅することができる。
アドホックメッセージを構造化メモリに置き換えるチェーンスタイルのフレームワークであるCOSMIR(Chain Orchestrated Structured Memory for Iterative Reasoning)を紹介する。
Plannerエージェントはまず、ユーザクエリを具体的でチェック可能なサブクエリに変換する。
ワーカーエージェントは、固定されたマイクロサイクルを介してチャンクを処理する: Extract, Infer, Refine, write all update to the shared memory。
その後、マネージャエージェントがメモリから直接最終回答を合成する。
これにより、通信媒体(構造化メモリ)とワーカープロシージャ(固定マイクロサイクル)の両方を変更しながら、ステップワイズな読み取り・推論の利点を保ち、より忠実で、より長い範囲のアグリゲーションが良くなり、監査性も向上する。
HELMETスイートからの長文QAでは、COSMIRは伝搬段情報損失を低減し、CoAベースライン上での精度を向上させる。
関連論文リスト
- Tree of Agents: Improving Long-Context Capabilities of Large Language Models through Multi-Perspective Reasoning [11.045096250408067]
Tree of Agents(TOA)は、インプットを独立したエージェントによって処理されたチャンクに分割するマルチエージェント推論フレームワークである。
TOAは、エージェントが複数のパースペクティブな理解のために異なる推論順序を探索することを可能にする。
処理効率を向上させるため,プレフィックスハッシュキャッシュと適応型プルーニング戦略を取り入れた。
論文 参考訳(メタデータ) (2025-09-08T08:34:02Z) - MEM1: Learning to Synergize Memory and Reasoning for Efficient Long-Horizon Agents [84.62985963113245]
我々は,長時間のマルチターンタスクに対して,エージェントが一定のメモリで動作可能な,エンドツーエンドの強化学習フレームワークMEM1を紹介する。
各ターンでMEM1は、メモリ統合と推論を共同でサポートするコンパクトな共有内部状態を更新する。
その結果,MEM1-7Bは16目的のマルチホップQAタスクにおいて,Qwen2.5-14B-Instructと比較してメモリ使用量を3.7倍削減し,3.5倍の性能向上を示す。
論文 参考訳(メタデータ) (2025-06-18T19:44:46Z) - From Single to Multi-Granularity: Toward Long-Term Memory Association and Selection of Conversational Agents [79.87304940020256]
大言語モデル(LLM)は会話エージェントで広く採用されている。
MemGASは、多粒度アソシエーション、適応選択、検索を構築することにより、メモリ統合を強化するフレームワークである。
4つの長期メモリベンチマークの実験により、MemGASは質問応答と検索タスクの両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2025-05-26T06:13:07Z) - Task Memory Engine (TME): Enhancing State Awareness for Multi-Step LLM Agent Tasks [0.0]
階層型タスクメモリツリー(TMT)を用いてタスク実行を追跡する軽量で構造化されたメモリモジュールを提案する。
TMEはグラフ対応に設計されており、再利用可能なサブステップ、タスクパスの収束、依存関係の共有をサポートする。
論文 参考訳(メタデータ) (2025-04-11T13:38:36Z) - Hierarchical Context Merging: Better Long Context Understanding for Pre-trained LLMs [61.40047491337793]
本稿では,大規模言語モデルの制約を克服する新しいトレーニングフリースキームである階層型cOntext MERging(HOMER)を提案する。
HomeRは、長いインプットを管理可能なチャンクに分割する、分別/対数アルゴリズムを使用する。
トークン削減技術がマージ毎に先行し、メモリ使用効率が保証される。
論文 参考訳(メタデータ) (2024-04-16T06:34:08Z) - Walking Down the Memory Maze: Beyond Context Limit through Interactive
Reading [63.93888816206071]
我々は,長いコンテキストを要約ノードのツリーに処理する手法であるMemWalkerを紹介した。クエリを受信すると,モデルがこのツリーをナビゲートして関連する情報を検索し,十分な情報を収集すると応答する。
その結果,MemWalkerは,テキストを対話的に読み取る際の推論ステップを強調し,クエリに関連するテキストセグメントをピンポイントすることで,説明性の向上を図っている。
論文 参考訳(メタデータ) (2023-10-08T06:18:14Z) - SCM: Enhancing Large Language Model with Self-Controlled Memory Framework [54.33686574304374]
大きな言語モデル(LLM)は、長い入力を処理できないため、重要な歴史的情報が失われる。
本稿では,LLMが長期記憶を維持し,関連する情報をリコールする能力を高めるための自己制御メモリ(SCM)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-26T07:25:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。