論文の概要: Fat-Cat: Document-Driven Metacognitive Multi-Agent System for Complex Reasoning
- arxiv url: http://arxiv.org/abs/2602.02206v1
- Date: Mon, 02 Feb 2026 15:12:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.243682
- Title: Fat-Cat: Document-Driven Metacognitive Multi-Agent System for Complex Reasoning
- Title(参考訳): Fat-Cat:複雑な推論のための文書駆動メタ認知マルチエージェントシステム
- Authors: Tong Yang, Yemin Wang, Chaoning Zhang, Aming Wu,
- Abstract要約: Fat-Catは、状態管理の信号対雑音比を改善するドキュメント駆動型エージェントアーキテクチャである。
これによってKimi-k2モデルは、HotPotQAで独自のGPT-4oベースラインを上回ります。
- 参考スコア(独自算出の注目度): 36.64832972439984
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The effectiveness of LLM-based agents is often limited not by model capacity alone, but by how efficiently contextual information is utilized at runtime. Existing agent frameworks rely on rigid, syntax-heavy state representations such as nested JSON, which require models to devote a substantial portion of their limited attention to syntactic processing rather than semantic reasoning. In this paper, we propose Fat-Cat, a document-driven agent architecture that improves the signal-to-noise ratio of state management. By integrating three key components: (1) a Semantic File System that represents agent state as Markdown documents aligned with common pre-training corpora, (2) a Textual Strategy Evolution module that accumulates task-solving knowledge without parameter updates, and (3) a Closed-Loop Watcher that monitors reasoning trajectories to reduce hallucinations. Extensive reasoning, retrieval, and coding benchmarks, Fat-Cat consistently improves agent performance. It enables the Kimi-k2 model to outperform the proprietary GPT-4o baseline on HotPotQA. Replacing the document-based state with JSON leads to performance drop, while empirically validating the critical necessity of document-driven state modeling over rigid syntax. The code is available at https://github.com/answeryt/Fat-Cat.
- Abstract(参考訳): LLMベースのエージェントの有効性は、モデルキャパシティのみでなく、実行時にいかに効率的にコンテキスト情報を利用するかによって制限されることが多い。
既存のエージェントフレームワークは、ネストされたJSONのような厳密で構文に富んだステート表現に依存しており、モデルがセマンティック推論よりも構文処理に限定的に注意を払う必要がある。
本稿では,状態管理の信号対雑音比を改善する文書駆動型エージェントアーキテクチャであるFat-Catを提案する。
1)マークダウン文書としてエージェント状態を表すセマンティックファイルシステム,(2)パラメータ更新なしでタスク解決知識を蓄積するテキスト戦略進化モジュール,(3)推論トラジェクトリをモニタして幻覚を減少させるクローズドループウォッチという3つの重要なコンポーネントを統合する。
Fat-Catは、大規模な推論、検索、およびコーディングベンチマークにより、エージェントのパフォーマンスを一貫して改善する。
これはKimi-k2モデルがHotPotQAで独自のGPT-4oベースラインを上回ります。
ドキュメントベースの状態をJSONで置き換えると、パフォーマンスが低下すると同時に、厳密な構文よりもドキュメント駆動の状態モデリングが重要な必要性を実証的に検証する。
コードはhttps://github.com/answeryt/Fat-Cat.comで入手できる。
関連論文リスト
- Resolving Evidence Sparsity: Agentic Context Engineering for Long-Document Understanding [49.26132236798123]
視覚言語モデル(VLM)は、文書理解における主要なアプローチになりつつある。
本稿では,粗いプロセスにおいて,検索者と4つの協調エージェントを編成するマルチエージェントフレームワークSLEUTHを提案する。
このフレームワークは、検索したページ内の重要なテキストおよび視覚的手がかりを特定し、テーブルやチャートなどの健全な視覚的エビデンスをフィルタし、クエリを分析して推論戦略を考案する。
論文 参考訳(メタデータ) (2025-11-28T03:09:40Z) - Model-Document Protocol for AI Search [11.377241012645994]
原文が大規模言語モデル (LLM) にどのようにブリッジされているかを形式化する汎用フレームワークである Model-Document Protocol (MDP) を導入する。
MDPは、検索をパスフェッチとして扱う代わりに、構造化されていない文書をタスク固有のLCM対応の入力に変換する複数の経路を定義している。
本稿では,エージェントプロセスを通じてプロトコルを実現するMPP-Agentを提案する。
論文 参考訳(メタデータ) (2025-10-29T04:29:17Z) - ScaleDoc: Scaling LLM-based Predicates over Large Document Collections [17.985997510845873]
現代のワークロードでは、意味的理解を必要とする非構造化ドキュメントがますます多く含まれている。
textscScaleDocは、述語実行をオフライン表現フェーズと最適化されたオンラインフィルタリングフェーズに分離することで、この問題に対処する新しいシステムである。
textscScaleDocは2$times$のエンドツーエンドのスピードアップを実現し、高価なLCM呼び出しを最大85%削減し、大規模なセマンティック分析を実用的かつ効率的にする。
論文 参考訳(メタデータ) (2025-09-16T03:18:06Z) - Visual Document Understanding and Question Answering: A Multi-Agent Collaboration Framework with Test-Time Scaling [83.78874399606379]
テスト時間スケーリングを備えたマルチエージェント協調フレームワークであるMACTを提案する。
4つの異なる小規模エージェントから構成され、明確に定義された役割と効果的なコラボレーションがある。
一般および数学的タスクの能力を犠牲にすることなく、より小さなパラメータスケールで優れた性能を示す。
論文 参考訳(メタデータ) (2025-08-05T12:52:09Z) - Efficient Document Ranking with Learnable Late Interactions [73.41976017860006]
クロスエンコーダ(CE)とデュアルエンコーダ(DE)モデルは,情報検索におけるクエリドキュメント関連性の2つの基本的なアプローチである。
関連性を予測するため、CEモデルは共同クエリドキュメントの埋め込みを使用し、DEモデルは分解クエリとドキュメントの埋め込みを維持している。
近年、DEM構造と軽量スコアラを用いて、より好ましいレイテンシ品質のトレードオフを実現するために、遅延相互作用モデルが提案されている。
論文 参考訳(メタデータ) (2024-06-25T22:50:48Z) - A Semantic Mention Graph Augmented Model for Document-Level Event Argument Extraction [12.286432133599355]
Document-level Event Argument extract (DEAE)は、構造化されていないドキュメントから引数とその特定の役割を特定することを目的としている。
DEAEの先進的なアプローチは、事前訓練された言語モデル(PLM)を誘導するプロンプトベースの手法を用いて、入力文書から引数を抽出する。
本稿では,この2つの問題に対処するために,グラフ拡張モデル (GAM) のセマンティック言及を提案する。
論文 参考訳(メタデータ) (2024-03-12T08:58:07Z) - UnifieR: A Unified Retriever for Large-Scale Retrieval [84.61239936314597]
大規模な検索は、クエリを与えられた巨大なコレクションから関連ドキュメントをリコールすることである。
事前学習型言語モデル(PLM)に基づく最近の検索手法は,高密度ベクターあるいはレキシコンに基づくパラダイムに大別することができる。
本論文では,高密度ベクトルとレキシコンに基づく検索を2つの表現能力を持つ1つのモデルで統合する学習フレームワークUnifieRを提案する。
論文 参考訳(メタデータ) (2022-05-23T11:01:59Z) - Long Document Summarization with Top-down and Bottom-up Inference [113.29319668246407]
本稿では、2つの側面の要約モデルを改善するための原則的推論フレームワークを提案する。
我々のフレームワークは、トップレベルが長距離依存性をキャプチャするドキュメントの階層的な潜在構造を前提としています。
本稿では,様々な要約データセットに対して提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-03-15T01:24:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。