論文の概要: Extending ResourceLink: Patterns for Large Dataset Processing in MCP Applications
- arxiv url: http://arxiv.org/abs/2510.05968v1
- Date: Tue, 07 Oct 2025 14:23:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:08.285186
- Title: Extending ResourceLink: Patterns for Large Dataset Processing in MCP Applications
- Title(参考訳): ResourceLinkの拡張: MCPアプリケーションにおける大規模データセット処理のためのパターン
- Authors: Scott Frees,
- Abstract要約: 本稿では,データ検索からクエリ生成を分離するLCMを利用したレポーティングシステムを構築するためのパターンを提案する。
マルチテナントセキュリティとリソースライフサイクル管理のパターンを伴って、反復的なクエリリファインメントとアウトオブバンドデータアクセスの両方をサポートするために、ResourceLinkを拡張したデュアルレスポンスパターンを導入する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models translate natural language into database queries, yet context window limitations prevent direct deployment in reporting systems where complete datasets exhaust available tokens. The Model Context Protocol specification defines ResourceLink for referencing external resources, but practical patterns for implementing scalable reporting architectures remain undocumented. This paper presents patterns for building LLM-powered reporting systems that decouple query generation from data retrieval. We introduce a dual-response pattern extending ResourceLink to support both iterative query refinement and out-of-band data access, accompanied by patterns for multi-tenant security and resource lifecycle management. These patterns address fundamental challenges in LLM-driven reporting applications and provide practical guidance for developers building them.
- Abstract(参考訳): 大規模言語モデルは自然言語をデータベースクエリに変換するが、コンテキストウィンドウの制限により、完全なデータセットが利用可能なトークンを消費するレポートシステムへの直接的なデプロイが防止される。
Model Context Protocol仕様は外部リソースを参照するためのResourceLinkを定義しているが、スケーラブルなレポートアーキテクチャを実装するための実践的なパターンは文書化されていない。
本稿では,データ検索からクエリ生成を分離するLCMを利用したレポーティングシステムを構築するためのパターンを提案する。
マルチテナントセキュリティとリソースライフサイクル管理のパターンを伴って、反復的なクエリリファインメントとアウトオブバンドデータアクセスの両方をサポートするために、ResourceLinkを拡張したデュアルレスポンスパターンを導入する。
これらのパターンは、LLM駆動のレポートアプリケーションにおける基本的な課題に対処し、開発者のための実践的なガイダンスを提供する。
関連論文リスト
- Beyond Isolated Dots: Benchmarking Structured Table Construction as Deep Knowledge Extraction [28.47810405584841]
Arranged and Organized extract Benchmarkは、断片化された文書を理解するための大規模言語モデルの能力を評価するために設計された。
AOEには3つの異なるドメインにまたがる11のタスクが含まれており、さまざまな入力クエリに適したコンテキスト固有のスキーマを生成するモデルが必要である。
結果は、最も先進的なモデルでさえ、かなり苦労したことを示している。
論文 参考訳(メタデータ) (2025-07-22T06:37:51Z) - Large Language Models are Good Relational Learners [55.40941576497973]
本稿では,グラフニューラルネットワーク(GNN)に基づくエンコーダを用いて,大規模言語モデル(LLM)のための構造化リレーショナルプロンプトを生成する新しいアーキテクチャであるRel-LLMを紹介する。
従来のテキストベースのシリアライズ手法とは異なり,本手法はデータベース固有の関係構造を保ちながら,LLMが複雑なエンティティ関係を処理・推論することを可能にする。
論文 参考訳(メタデータ) (2025-06-06T04:07:55Z) - Towards Scalable Schema Mapping using Large Language Models [14.028425711746513]
スキーママッピングに大規模言語モデル(LLM)を使用する際の3つの問題を特定する。
本稿では,サンプリングとアグリゲーションによる手法を提案する。
データ型プリフィルタのような戦略を緩和することを提案する。
論文 参考訳(メタデータ) (2025-05-30T15:36:56Z) - Unleashing the Power of LLMs in Dense Retrieval with Query Likelihood Modeling [69.84963245729826]
本稿では,検索者の後続のコントラスト学習のためのバックボーンを強化するために,QLの補助的タスクを提案する。
注意ブロック(AB)と文書破壊(DC)の2つの重要なコンポーネントを組み込んだモデルを紹介します。
論文 参考訳(メタデータ) (2025-04-07T16:03:59Z) - Beyond Quacking: Deep Integration of Language Models and RAG into DuckDB [44.057784044659726]
大規模言語モデル(LLM)により、このような検索と推論データパイプラインのプロトタイプがより簡単になった。
これはしばしば、データシステムのオーケストレーション、データムーブメントの管理、低レベルの詳細処理を含む。
我々はFlockMTLを紹介した。FlockMTLはLLM機能と検索拡張生成を深く統合した抽象化用拡張である。
論文 参考訳(メタデータ) (2025-04-01T19:48:17Z) - WildLong: Synthesizing Realistic Long-Context Instruction Data at Scale [86.25450054683172]
WildLongは、実際のユーザクエリからメタ情報を取り出して、スケーラブルなデータを生成する。
クロスドキュメント比較やアグリゲーションといったマルチドキュメント推論をサポートする。
ベンチマーク全体で、既存のオープンソースの長期コンテキスト最適化モデルを上回っている。
論文 参考訳(メタデータ) (2025-02-23T18:59:09Z) - Harmonizing Metadata of Language Resources for Enhanced Querying and Accessibility [0.0]
本稿では,言語資源の多種多様なリポジトリ(LR)からのメタデータの調和について述べる。
我々の手法は,新たに開発されたポータルであるLinghubを通じて,テキストベースの検索,ファステッドブラウジング,高度なSPARQLクエリをサポートする。
この研究は、メタデータの調和を高めるために、重要なメタデータの問題とオープンな語彙と標準に固執することを提唱する。
論文 参考訳(メタデータ) (2025-01-09T22:48:43Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z) - Self-Prompting Large Language Models for Zero-Shot Open-Domain QA [67.08732962244301]
Open-Domain Question Answering (ODQA)は、背景文書を明示的に提供せずに質問に答えることを目的としている。
このタスクは、調整済みの検索リーダーモデルをトレーニングするデータがないゼロショット設定で顕著に困難になる。
本稿では,大規模言語モデルのパラメータに符号化された膨大な知識を明示的に活用するセルフプロンプトフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-16T18:23:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。