論文の概要: Transforming External Knowledge into Triplets for Enhanced Retrieval in RAG of LLMs
- arxiv url: http://arxiv.org/abs/2604.12610v1
- Date: Tue, 14 Apr 2026 11:36:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-04-15 19:11:32.413522
- Title: Transforming External Knowledge into Triplets for Enhanced Retrieval in RAG of LLMs
- Title(参考訳): LLMのRAGにおける検索能力向上のための外部知識のトリプレットへの変換
- Authors: Xudong Wang, Chaoning Zhang, Qigan Sun, Zhenzhen Huang, Chang Lu, Sheng Zheng, Zeyu Ma, Caiyan Qin, Yang Yang, Hengtao Shen,
- Abstract要約: Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)における幻覚を、生成時に外部知識を取り入れることで緩和する。
既存のRAGアプローチは通常、コンテキストとしてテキストフラグメントを検索し、非構造化する。
本稿では,三重項に基づく検索フレームワークTri-RAGを提案する。
- 参考スコア(独自算出の注目度): 55.78708003681562
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Retrieval-Augmented Generation (RAG) mitigates hallucination in large language models (LLMs) by incorporating external knowledge during generation. However, the effectiveness of RAG depends not only on the design of the retriever and the capacity of the underlying model, but also on how retrieved evidence is structured and aligned with the query. Existing RAG approaches typically retrieve and concatenate unstructured text fragments as context, which often introduces redundant or weakly relevant information. This practice leads to excessive context accumulation, reduced semantic alignment, and fragmented reasoning chains, thereby degrading generation quality while increasing token consumption. To address these challenges, we propose Tri-RAG, a structured triplet-based retrieval framework that improves retrieval efficiency through reasoning-aligned context construction. Tri-RAG automatically transforms external knowledge from natural language into standardized structured triplets consisting of Condition, Proof, and Conclusion, explicitly capturing logical relations among knowledge fragments using lightweight prompt-based adaptation with frozen model parameters. Building on this representation, the triplet head Condition is treated as an explicit semantic anchor for retrieval and matching, enabling precise identification of query-relevant knowledge units without directly concatenating lengthy raw texts. As a result, Tri-RAG achieves a favorable balance between retrieval accuracy and context token efficiency. Experimental results across multiple benchmark datasets demonstrate that Tri-RAG significantly improves retrieval quality and reasoning efficiency, while producing more stable generation behavior and more efficient resource utilization in complex reasoning scenarios.
- Abstract(参考訳): Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)における幻覚を、生成時に外部知識を取り入れることで緩和する。
しかしながら、RAGの有効性は、レトリバーの設計と基盤モデルの能力だけでなく、検索されたエビデンスがどのように構造化され、クエリに適合しているかにも依存する。
既存のRAGアプローチは通常、構造化されていないテキスト断片をコンテキストとして検索して結合する。
このプラクティスは、過剰なコンテキストの蓄積、セマンティックアライメントの低減、および断片化された推論チェーンをもたらし、それによってトークン消費を増やしながら生成品質を低下させる。
これらの課題に対処するため,構造化三重項に基づく検索フレームワークTri-RAGを提案する。
Tri-RAGは、外部知識を自然言語から、条件、証明、結論からなる標準化された三重項に自動的に変換し、凍結モデルパラメータによる軽量なプロンプトベースの適応を用いて、知識フラグメント間の論理的関係を明示的にキャプチャする。
この表現に基づいて、トリプルトヘッド条件は、検索とマッチングのための明示的なセマンティックアンカーとして扱われ、長い原文を直接結合することなく、クエリ関連知識単位の正確な識別を可能にする。
その結果、Tri-RAGは、検索精度とコンテキストトークン効率の良好なバランスを実現する。
複数のベンチマークデータセットに対する実験結果から、Tri-RAGは検索品質と推論効率を著しく向上し、複雑な推論シナリオにおいてより安定した生成挙動とより効率的な資源利用をもたらすことが示された。
関連論文リスト
- NaviRAG: Towards Active Knowledge Navigation for Retrieval-Augmented Generation [50.16741209529908]
NaviRAGは、パッシブセグメント検索からアクティブな知識ナビゲーションに移行する新しいフレームワークである。
NaviRAGは従来のRAGベースラインよりも検索リコールとエンドツーエンドの応答性能を一貫して改善することを示す。
論文 参考訳(メタデータ) (2026-04-14T14:07:01Z) - CodaRAG: Connecting the Dots with Associativity Inspired by Complementary Learning [50.98972985136333]
CodaRAGは、受動的検索からアクティブな連想発見へと進化するフレームワークである。
CodaRAGは、検索リコールで7-10%、生成精度で3-11%という絶対的なゲインを達成する。
論文 参考訳(メタデータ) (2026-04-12T02:50:40Z) - TaSR-RAG: Taxonomy-guided Structured Reasoning for Retrieval-Augmented Generation [17.21708416305234]
textscTaSR-RAGは、エビデンス選択のための分類誘導構造推論フレームワークである。
textscTaSR-RAGは、強いRAGと構造化RAGベースラインを最大14%上回っている。
論文 参考訳(メタデータ) (2026-03-10T08:16:36Z) - M-RAG: Making RAG Faster, Stronger, and More Efficient [15.147969102210759]
大規模言語モデルのための新しいチャンクフリー検索戦略であるM-RAGを提案する。
M-RAGは構造化されたk-v分解メタマーカーを軽量で意図に整合した検索キーで抽出する。
M-RAGは高い効率で解答フレンドリーな証拠を回収できることを示す。
論文 参考訳(メタデータ) (2026-01-06T15:14:54Z) - Multi-hop Reasoning via Early Knowledge Alignment [68.28168992785896]
アーリー・ナレッジ・アライメント(EKA)は、大規模言語モデルと文脈的に関連づけられた知識を整合させることを目的としている。
EKAは検索精度を大幅に改善し、カスケードエラーを低減し、性能と効率を向上する。
EKAは、大規模モデルにシームレスにスケールする、多目的でトレーニング不要な推論戦略として有効である。
論文 参考訳(メタデータ) (2025-12-23T08:14:44Z) - Grounding Long-Context Reasoning with Contextual Normalization for Retrieval-Augmented Generation [57.97548022208733]
キー値抽出における表面的選択が精度と安定性のシフトを引き起こすことを示す。
生成前の文脈表現を適応的に標準化する戦略であるコンテキスト正規化を導入する。
論文 参考訳(メタデータ) (2025-10-15T06:28:25Z) - PropRAG: Guiding Retrieval with Beam Search over Proposition Paths [15.346744525284604]
PropRAGは、トリプルからコンテキストリッチな命題に移行する新しいRAGフレームワークである。
PropRAGは2Wiki、HotpotQA、MuSiQueでRecall@5とF1のスコアを達成している。
論文 参考訳(メタデータ) (2025-04-25T04:47:34Z) - Don't Do RAG: When Cache-Augmented Generation is All You Need for Knowledge Tasks [11.053340674721005]
検索拡張世代(RAG)は,外部知識ソースを統合することで言語モデルを強化する強力なアプローチとして注目されている。
本稿では、リアルタイム検索をバイパスする代替パラダイムであるキャッシュ拡張生成(CAG)を提案する。
論文 参考訳(メタデータ) (2024-12-20T06:58:32Z) - SFR-RAG: Towards Contextually Faithful LLMs [57.666165819196486]
Retrieval Augmented Generation (RAG) は、外部コンテキスト情報を大言語モデル(LLM)と統合し、事実の精度と妥当性を高めるパラダイムである。
SFR-RAG(SFR-RAG)について述べる。
また、複数の人気かつ多様なRAGベンチマークをコンパイルする新しい評価フレームワークであるConBenchについても紹介する。
論文 参考訳(メタデータ) (2024-09-16T01:08:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。