論文の概要: SRAG: RAG with Structured Data Improves Vector Retrieval
- arxiv url: http://arxiv.org/abs/2603.26670v1
- Date: Tue, 27 Jan 2026 07:27:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-04-06 02:36:13.053537
- Title: SRAG: RAG with Structured Data Improves Vector Retrieval
- Title(参考訳): SRAG: 構造化データ付きRAGはベクトル検索を改善する
- Authors: Shalin Shah, Srikanth Ryali, Ramasubbu Venkatesh,
- Abstract要約: Retrieval Augmented Generation (RAG)は、LLMに必要な情報基盤を提供する。
RAGはまた、LLMに事実情報を提供する手段として知識グラフトリプルを使用することもできる。
本稿では,クエリに構造化情報とトピック,感情,クエリ,チャンク型のチャンクを付加する構造RAG(Structured RAG)を提案する。
- 参考スコア(独自算出の注目度): 1.1288006309687828
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retrieval Augmented Generation (RAG) provides the necessary informational grounding to LLMs in the form of chunks retrieved from a vector database or through web search. RAG could also use knowledge graph triples as a means of providing factual information to an LLM. However, the retrieval is only based on representational similarity between a question and the contents. The performance of RAG depends on the numeric vector representations of the query and the chunks. To improve these representations, we propose Structured RAG (SRAG), which adds structured information to a query as well as the chunks in the form of topics, sentiments, query and chunk types (e.g., informational, quantitative), knowledge graph triples and semantic tags. Experiments indicate that this method significantly improves the retrieval process. Using GPT-5 as an LLM-as-a-judge, results show that the method improves the score given to answers in a question answering system by 30% (p-value = 2e-13) (with tighter bounds). The strongest improvement is in comparative, analytical and predictive questions. The results suggest that our method enables broader, more diverse, and episodic-style retrieval. Tail risk analysis shows that SRAG attains very large gains more often, with losses remaining minor in magnitude.
- Abstract(参考訳): Retrieval Augmented Generation (RAG) は、ベクトルデータベースから取得したチャンクやWeb検索を通じてLLMに必要な情報基盤を提供する。
RAGはまた、LLMに事実情報を提供する手段として知識グラフトリプルを使用することもできる。
しかし、検索は、質問と内容の間の表現的類似性にのみ依存する。
RAGのパフォーマンスは、クエリとチャンクの数値ベクトル表現に依存する。
これらの表現を改善するために、構造化RAG(Structured RAG)を提案する。これは、クエリに構造化情報に加えて、トピック、感情、クエリ、チャンクタイプ(例えば、情報、量)、知識グラフのトリプル、セマンティックタグの形式でチャンクを追加する。
実験により,本手法は検索過程を大幅に改善することが示された。
その結果, GPT-5 を LLM-as-a-judge として用いることで, 質問応答システムにおける回答のスコアを 30% (p-value = 2e-13) 向上させることができた。
最も大きな改善は、比較的、分析的、予測的な質問である。
その結果,提案手法はより広範,多様で,エピソード的な検索を可能にすることが示唆された。
タイルリスク分析により、SRAGはより多く増加し、損失は微少に留まった。
関連論文リスト
- ReAG: Reasoning-Augmented Generation for Knowledge-based Visual Question Answering [54.72902502486611]
ReAG(Reasoning-Augmented Multimodal RAG)は、粗い部分ときめ細かい部分の検索と、無関係な通路をフィルタリングする批評家モデルを組み合わせた手法である。
ReAGは従来の手法よりも優れており、解答精度が向上し、検索された証拠に根ざした解釈可能な推論を提供する。
論文 参考訳(メタデータ) (2025-11-27T19:01:02Z) - TeaRAG: A Token-Efficient Agentic Retrieval-Augmented Generation Framework [62.66056331998838]
TeaRAGは、検索内容と推論ステップの両方を圧縮できるトークン効率のエージェントRAGフレームワークである。
報奨関数は,過剰な推論ステップをペナルティ化しながら,知識マッチング機構によって知識満足度を評価する。
論文 参考訳(メタデータ) (2025-11-07T16:08:34Z) - SRAG: Structured Retrieval-Augmented Generation for Multi-Entity Question Answering over Wikipedia Graph [10.297615455470133]
MEQA(Multi-entity Question answering)は、大規模言語モデルにおいて重要な課題である。
本稿では、抽出されたエンティティをリレーショナルテーブルに整理する構造化RAGフレームワークを提案する。
ウィキペディアベースのマルチエンタリティQAタスクの実験では、SRAGが最先端の長文LLMを著しく上回っていることが示されている。
論文 参考訳(メタデータ) (2025-03-03T09:37:33Z) - ChunkRAG: Novel LLM-Chunk Filtering Method for RAG Systems [2.8692611791027893]
Retrieval-Augmented Generation (RAG) システムは、無関係またはゆるい関連情報の検索によって不正確な応答を生成する。
チャンクレベルで取得した情報を評価・フィルタリングすることでRAGシステムを強化するフレームワークであるChunkRAGを提案する。
論文 参考訳(メタデータ) (2024-10-25T14:07:53Z) - RAGEval: Scenario Specific RAG Evaluation Dataset Generation Framework [66.93260816493553]
本稿では,様々なシナリオにまたがってRAGシステムを評価するためのフレームワークであるRAGvalを紹介する。
事実の正確性に焦点をあてて,完全性,幻覚,不適切性の3つの新しい指標を提案する。
実験結果から, RAGEvalは, 生成した試料の明瞭度, 安全性, 適合性, 豊かさにおいて, ゼロショット法とワンショット法より優れていた。
論文 参考訳(メタデータ) (2024-08-02T13:35:11Z) - CRUD-RAG: A Comprehensive Chinese Benchmark for Retrieval-Augmented Generation of Large Language Models [49.16989035566899]
Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)の能力を高める技術である。
本稿では,大規模かつ包括的なベンチマークを構築し,様々なRAGアプリケーションシナリオにおけるRAGシステムのすべてのコンポーネントを評価する。
論文 参考訳(メタデータ) (2024-01-30T14:25:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。