論文の概要: Structured Linked Data as a Memory Layer for Agent-Orchestrated Retrieval
- arxiv url: http://arxiv.org/abs/2603.10700v1
- Date: Wed, 11 Mar 2026 12:12:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.937068
- Title: Structured Linked Data as a Memory Layer for Agent-Orchestrated Retrieval
- Title(参考訳): エージェントオーケストレーション検索のためのメモリ層としての構造化リンクデータ
- Authors: Andrea Volpini, Elie Raad, Beatrice Gamba, David Riccitelli,
- Abstract要約: 構造化されたリンクデータ、具体的には.orgマークアップと参照可能なエンティティページは、標準RAGシステムとエージェントRAGシステムの両方において、検索精度と応答品質を向上させることができるかを検討する。
検索にはVertex AI Vector Search 2.0を用いて4つのドメイン(教育、法律、旅行、eコマース)で制御された実験を行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retrieval-Augmented Generation (RAG) systems typically treat documents as flat text, ignoring the structured metadata and linked relationships that knowledge graphs provide. In this paper, we investigate whether structured linked data, specifically Schema.org markup and dereferenceable entity pages served by a Linked Data Platform, can improve retrieval accuracy and answer quality in both standard and agentic RAG systems. We conduct a controlled experiment across four domains (editorial, legal, travel, e-commerce) using Vertex AI Vector Search 2.0 for retrieval and the Google Agent Development Kit (ADK) for agentic reasoning. Our experimental design tests seven conditions: three document representations (plain HTML, HTML with JSON-LD, and an enhanced agentic-optimized entity page) crossed with two retrieval modes (standard RAG and agentic RAG with multi-hop link traversal), plus an Enhanced+ condition that adds rich navigational affordances and entity interlinking. Our results reveal that while JSON-LD markup alone provides only modest improvements, our enhanced entity page format, incorporating llms.txt-style agent instructions, breadcrumbs, and neural search capabilities, achieves substantial gains: +29.6% accuracy improvement for standard RAG and +29.8% for the full agentic pipeline. The Enhanced+ variant, with richer navigational affordances, achieves the highest absolute scores (accuracy: 4.85/5, completeness: 4.55/5), though the incremental gain over the base enhanced format is not statistically significant. We release our dataset, evaluation framework, and enhanced entity page templates to support reproducibility.
- Abstract(参考訳): Retrieval-Augmented Generation (RAG)システムは通常、ドキュメントをフラットテキストとして扱い、構造化メタデータや知識グラフが提供する関連性を無視している。
本稿では、構造化されたリンクデータ、具体的にはSchema.orgのマークアップと、Linked Data Platformによって提供される参照可能なエンティティページが、標準RAGシステムとエージェントRAGシステムの両方において、検索精度と応答品質を向上させることができるかどうかを検討する。
我々は,検索のためのVertex AI Vector Search 2.0とエージェント推論のためのGoogle Agent Development Kit(ADK)を用いて,4つのドメイン(教育,法律,旅行,eコマース)で制御された実験を行う。
実験では,3つの文書表現(HTMLとJSON-LDを備えたHTML,エージェント最適化エンティティページ)を2つの検索モード(標準RAGとエージェントRAGとマルチホップリンクトラバーサルを備えたエージェントRAG)にまたがって比較した。
結果によると、JSON-LDマークアップだけではわずかに改善できるが、強化されたエンティティページフォーマット、llms.txtスタイルのエージェントインストラクション、パンクラム、ニューラルサーチ機能が組み込まれており、標準RAGの+29.6%、フルエージェントパイプラインの+29.8%の精度向上を実現している。
拡張+の派生版は、より豊富な航法能力を持ち、最高絶対スコア(正確性: 4.85/5、完全性: 4.55/5)を達成しているが、基本拡張フォーマットよりも漸進的なゲインは統計的に有意ではない。
再現性をサポートするために、データセット、評価フレームワーク、強化されたエンティティページテンプレートをリリースします。
関連論文リスト
- Beyond Relevance: On the Relationship Between Retrieval and RAG Information Coverage [89.58253972744531]
Retrieval-augmented Generation (RAG) システムは、文書検索と生成モデルを組み合わせて、レポート生成のような複雑な情報を求める課題に対処する。
我々は,上流の検索指標が,最終生成応答の情報カバレッジの信頼性の高い早期指標として機能するかどうかを検討する。
本研究は,トピックとシステムレベルの両方で生成した応答におけるカバレッジベース検索指標とナゲットカバレッジとの間に強い相関関係を示した。
論文 参考訳(メタデータ) (2026-03-09T18:20:20Z) - TeaRAG: A Token-Efficient Agentic Retrieval-Augmented Generation Framework [62.66056331998838]
TeaRAGは、検索内容と推論ステップの両方を圧縮できるトークン効率のエージェントRAGフレームワークである。
報奨関数は,過剰な推論ステップをペナルティ化しながら,知識マッチング機構によって知識満足度を評価する。
論文 参考訳(メタデータ) (2025-11-07T16:08:34Z) - AgentExpt: Automating AI Experiment Design with LLM-based Resource Retrieval Agent [36.65355075707938]
AI研究における重要な応用の1つは、エージェントとベースライン検索による実験設計を自動化することである。
ベースラインおよびデータセットレコメンデーションのための包括的フレームワークを提案する。
我々は、正確な相互作用連鎖を構築して明確な推論連鎖を構築し、解釈可能な正当化を生成するために大きな言語モデルを微調整する推論強化リランカを開発する。
論文 参考訳(メタデータ) (2025-11-07T01:51:56Z) - WebGen-Agent: Enhancing Interactive Website Generation with Multi-Level Feedback and Step-Level Reinforcement Learning [51.14454312533818]
WebGen-Agentは、包括的で多層的な視覚フィードバックを活用する新しいWebサイト生成エージェントである。
WebGen-Agent の推論エンジンとして機能する LLM の能力を向上させるために,Screenshot と GUI-Adnt Feedback を備えた textitStep-GRPO を導入している。
WebGen-Agent は Claude-3.5-Sonnet の精度を 26.4% から 51.9% に引き上げ、外観スコアを 3.0 から 3.9 に引き上げた。
論文 参考訳(メタデータ) (2025-09-26T17:59:51Z) - Enhancing Document VQA Models via Retrieval-Augmented Generation [1.6769365072542683]
ドキュメントVQAは数十ページに及ぶドキュメントに対処しなければならないが、主要なシステムは依然として非常に大きな視覚言語モデルに依存している。
Retrieval-Augmented Generation (RAG) は魅力的な代替手段を提供する。
論文 参考訳(メタデータ) (2025-08-26T12:32:55Z) - Advancing Retrieval-Augmented Generation for Structured Enterprise and Internal Data [0.0]
大きな言語モデル(LLM)は強力な生成能力を持つ。
静的事前トレーニング、短いコンテキストウィンドウ、および異種データフォーマットを処理する際の課題によって制限されている。
従来のRetrieval-Augmented Generation (RAG) フレームワークはこれらのギャップのいくつかに対処するが、構造化データや半構造化データに苦慮することが多い。
本研究では,SpaCy NERとクロスエンコーダによるメタデータ認識フィルタリングにより強化された,高密度埋め込み(All-mpnet-base-v2)とBM25を用いたハイブリッド検索戦略を組み合わせた高度なRAGフレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-16T17:13:06Z) - QuIM-RAG: Advancing Retrieval-Augmented Generation with Inverted Question Matching for Enhanced QA Performance [1.433758865948252]
本研究では,RAG(Retrieval-Augmented Generation)システム構築のための新しいアーキテクチャを提案する。
RAGアーキテクチャは、ターゲット文書から応答を生成するために構築される。
本稿では,本システムにおける検索機構の新しいアプローチQuIM-RAGを紹介する。
論文 参考訳(メタデータ) (2025-01-06T01:07:59Z) - Discourse Features Enhance Detection of Document-Level Machine-Generated Content [53.41994768824785]
機械生成コンテンツは、学術プラジャリズムや誤報の拡散といった課題を提起する。
既存のMGC検出器は、しばしば表面レベルの情報のみに焦点を当て、暗黙的かつ構造的な特徴を見渡す。
これらの課題を克服するために、新しい方法論とデータセットを導入します。
論文 参考訳(メタデータ) (2024-12-17T08:47:41Z) - SiReRAG: Indexing Similar and Related Information for Multihop Reasoning [96.60045548116584]
SiReRAGは、類似情報と関連する情報の両方を明示的に考慮する新しいRAGインデックス方式である。
SiReRAGは、3つのマルチホップデータセットの最先端インデックス手法を一貫して上回る。
論文 参考訳(メタデータ) (2024-12-09T04:56:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。