論文の概要: Model-Document Protocol for AI Search
- arxiv url: http://arxiv.org/abs/2510.25160v1
- Date: Wed, 29 Oct 2025 04:29:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:45.081081
- Title: Model-Document Protocol for AI Search
- Title(参考訳): AI検索のためのモデル文書プロトコル
- Authors: Hongjin Qian, Zheng Liu,
- Abstract要約: 原文が大規模言語モデル (LLM) にどのようにブリッジされているかを形式化する汎用フレームワークである Model-Document Protocol (MDP) を導入する。
MDPは、検索をパスフェッチとして扱う代わりに、構造化されていない文書をタスク固有のLCM対応の入力に変換する複数の経路を定義している。
本稿では,エージェントプロセスを通じてプロトコルを実現するMPP-Agentを提案する。
- 参考スコア(独自算出の注目度): 11.377241012645994
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI search depends on linking large language models (LLMs) with vast external knowledge sources. Yet web pages, PDF files, and other raw documents are not inherently LLM-ready: they are long, noisy, and unstructured. Conventional retrieval methods treat these documents as verbatim text and return raw passages, leaving the burden of fragment assembly and contextual reasoning to the LLM. This gap underscores the need for a new retrieval paradigm that redefines how models interact with documents. We introduce the Model-Document Protocol (MDP), a general framework that formalizes how raw text is bridged to LLMs through consumable knowledge representations. Rather than treating retrieval as passage fetching, MDP defines multiple pathways that transform unstructured documents into task-specific, LLM-ready inputs. These include agentic reasoning, which curates raw evidence into coherent context; memory grounding, which accumulates reusable notes to enrich reasoning; and structured leveraging, which encodes documents into formal representations such as graphs or key-value caches. All three pathways share the same goal: ensuring that what reaches the LLM is not raw fragments but compact, structured knowledge directly consumable for reasoning. As an instantiation, we present MDP-Agent, which realizes the protocol through an agentic process: constructing document-level gist memories for global coverage, performing diffusion-based exploration with vertical exploitation to uncover layered dependencies, and applying map-reduce style synthesis to integrate large-scale evidence into compact yet sufficient context. Experiments on information-seeking benchmarks demonstrate that MDP-Agent outperforms baselines, validating both the soundness of the MDP framework and the effectiveness of its agentic instantiation.
- Abstract(参考訳): AI検索は、巨大な言語モデル(LLM)と膨大な外部知識ソースのリンクに依存する。
しかし、Webページ、PDFファイル、その他の生文書は本質的にLLM対応ではない。
従来の検索手法では、これらの文書を冗長テキストとして扱い、生の文を返却し、断片集合と文脈推論の負担を LLM に残している。
このギャップは、モデルがドキュメントとどのように相互作用するかを再定義する新しい検索パラダイムの必要性を浮き彫りにする。
本稿では,LLM への原文のブリッジ方法の定式化を行う汎用フレームワークである Model-Document Protocol (MDP) を紹介する。
MDPは、検索をパスフェッチとして扱う代わりに、構造化されていない文書をタスク固有のLCM対応の入力に変換する複数の経路を定義している。
これには、生のエビデンスをコヒーレントなコンテキストにキュレートするエージェント推論、再利用可能なノートを蓄積して推論を豊かにするメモリグラデーション、ドキュメントをグラフやキーバリューキャッシュなどの形式的な表現にエンコードする構造化利用などがある。
3つの経路は同じ目標を共有している: LLMに到達するものは生の断片ではなく、推論のために直接消費されるコンパクトで構造化された知識である。
本稿では, エージェントプロセスを通じてプロトコルを実現するMDP-Agentについて述べる。グローバルカバレッジのための文書レベルのギストメモリの構築, レイヤ依存の発見に垂直な活用による拡散ベースの探索, 大規模エビデンスをコンパクトかつ十分なコンテキストに統合するためのマップ・リデュース・スタイルの合成などである。
情報探索ベンチマーク実験により、MDP-Agentはベースラインを上回り、MDPフレームワークの健全性とエージェントインスタンス化の有効性を検証した。
関連論文リスト
- Scaling Beyond Context: A Survey of Multimodal Retrieval-Augmented Generation for Document Understanding [61.36285696607487]
文書理解は、財務分析から科学的発見への応用に不可欠である。
現在のアプローチでは、OCRベースのパイプラインがLarge Language Models(LLM)やネイティブのMultimodal LLMs(MLLM)に制限されている。
Retrieval-Augmented Generation (RAG)は、外部データの基底モデルを支援するが、文書のマルチモーダルな性質は、テキスト、テーブル、チャート、レイアウトを組み合わせることで、より高度なパラダイムを必要とする。
論文 参考訳(メタデータ) (2025-10-17T02:33:16Z) - MoM: Mixtures of Scenario-Aware Document Memories for Retrieval-Augmented Generation Systems [31.434573363421368]
複数のドメインからのドキュメントを効率的に処理するために設計された、シナリオ対応ドキュメントメモリ(MoM)フレームワークの混合。
MoMは、ドキュメント論理的アウトラインを生成する際に、ドメインエキスパートをシミュレートする大規模な言語モデル(LLM)を指示する。
我々は、高品質な結果から洗練された専門家思考経路を導出する逆推論戦略を取り入れた。
論文 参考訳(メタデータ) (2025-10-16T03:09:51Z) - The Role of Parametric Injection-A Systematic Study of Parametric Retrieval-Augmented Generation [8.544971676258971]
パラノイド検索拡張生成(PRAG)は、ドキュメントをモデルパラメータとしてエンコードし、推論中にこれらの表現をモデルに注入する。
PRAGは文書の部分的意味情報のみをキャプチャし,それに依存するだけでテキストレベルでのインタラクションよりも性能が劣ることを示す。
パラメータ化された文書とテキスト文書を組み合わせると、モデルは関連情報をより効果的に活用し、ノイズの多い入力に対してより堅牢になる。
論文 参考訳(メタデータ) (2025-10-14T16:05:01Z) - When Thoughts Meet Facts: Reusable Reasoning for Long-Context LMs [64.27273946787344]
最近のLong-Context Language Modelsは、1つのプロンプトで数十万のトークンを処理することができる。
我々は、従来の問題解決トレースから導かれた再利用可能な思考キャッシュとして、推論をリキャストする。
本稿では,自然言語フィードバックによって学習データから得られるテンプレートを反復的に洗練する更新戦略を提案する。
論文 参考訳(メタデータ) (2025-10-08T19:52:35Z) - Beyond Isolated Dots: Benchmarking Structured Table Construction as Deep Knowledge Extraction [28.47810405584841]
Arranged and Organized extract Benchmarkは、断片化された文書を理解するための大規模言語モデルの能力を評価するために設計された。
AOEには3つの異なるドメインにまたがる11のタスクが含まれており、さまざまな入力クエリに適したコンテキスト固有のスキーマを生成するモデルが必要である。
結果は、最も先進的なモデルでさえ、かなり苦労したことを示している。
論文 参考訳(メタデータ) (2025-07-22T06:37:51Z) - Beyond Chunking: Discourse-Aware Hierarchical Retrieval for Long Document Question Answering [51.7493726399073]
本稿では,長文質問応答を改善するための対話型階層型フレームワークを提案する。
このフレームワークには3つの重要な革新がある: 長文の専門的な談話解析、LLMに基づく談話関係ノードの拡張、構造誘導階層検索である。
論文 参考訳(メタデータ) (2025-05-26T14:45:12Z) - M-DocSum: Do LVLMs Genuinely Comprehend Interleaved Image-Text in Document Summarization? [49.53982792497275]
本稿では,LVLM(Large Vision-Language Models)が文書中のインターリーブ画像テキストを真に理解しているかどうかを検討する。
既存の文書理解ベンチマークは、しばしば質問応答形式を用いてLVLMを評価する。
マルチモーダル文書要約ベンチマーク(M-DocSum-Bench)について紹介する。
M-DocSum-Benchは500の高品質なarXiv論文と、人間の好みに合わせたインターリーブされたマルチモーダル要約で構成されている。
論文 参考訳(メタデータ) (2025-03-27T07:28:32Z) - Learning Refined Document Representations for Dense Retrieval via Deliberate Thinking [58.69615583599489]
Deliberate Thinking based Retriever (Debater) は、段階的な思考プロセスを導入することで文書表現を強化する新しいアプローチである。
Debaterは、いくつかのベンチマークで既存のメソッドよりも大幅に優れています。
論文 参考訳(メタデータ) (2025-02-18T15:56:34Z) - LightPAL: Lightweight Passage Retrieval for Open Domain Multi-Document Summarization [9.739781953744606]
Open-Domain Multi-Document Summarization (ODMDS)は、ユーザクエリに応答して巨大なドキュメントコレクションから要約を生成するタスクである。
ODMDSタスクのオープンエンドクエリでは、従来の検索列サマリズアプローチは不足している。
ODMDSの軽量パス検索手法であるLightPALを提案する。
論文 参考訳(メタデータ) (2024-06-18T10:57:27Z) - Peering into the Mind of Language Models: An Approach for Attribution in Contextual Question Answering [9.86691461253151]
大規模言語モデル(LLM)の隠れ状態表現を利用した文脈質問応答における帰属手法を提案する。
提案手法は,より詳細な属性を提供し,生成した回答の質を保ちながら,広範囲なモデル再訓練および検索モデルオーバーヘッドの必要性を回避している。
本稿では,LLM世代に対するトークンレベルのアノテーションを文脈質問応答設定に有する属性データセットであるVerifiability-granularを提案する。
論文 参考訳(メタデータ) (2024-05-28T09:12:44Z) - PEARL: Prompting Large Language Models to Plan and Execute Actions Over
Long Documents [78.27865456183397]
長い文書に対する推論を改善するためのフレームワークであるPEARLを提案する。
PEARLの各ステージは、最小限の人間の入力でゼロショットまたは少数ショットのプロンプトによって実装される。
PEARLをQuALITYデータセットの挑戦的なサブセットで評価し、長い物語テキストに対して複雑な推論を必要とする質問を含む。
論文 参考訳(メタデータ) (2023-05-23T23:06:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。