論文の概要: LiteSemRAG: Lightweight LLM-Free Semantic-Aware Graph Retrieval for Robust RAG
- arxiv url: http://arxiv.org/abs/2604.16350v1
- Date: Mon, 16 Mar 2026 19:31:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-05-04 02:32:13.917973
- Title: LiteSemRAG: Lightweight LLM-Free Semantic-Aware Graph Retrieval for Robust RAG
- Title(参考訳): LiteSemRAG:Robust RAGのための軽量LLMフリーセマンティックグラフ検索
- Authors: Xiao Yue, Guangzhi Qu, Lige Gan,
- Abstract要約: セマンティックなグラフ検索フレームワーク LiteSemRAG を提案する。
LiteSemRAGはコンテキストトークンレベルの埋め込みを利用して異質なセマンティックグラフを構築する。
LiteSemRAGはゼロのLLMトークンを消費し、インデックス化とクエリの両方で大幅な効率の改善を実現している。
- 参考スコア(独自算出の注目度): 0.5702263832571335
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph-based Retrieval-Augmented Generation (RAG) has shown great potential for improving multi-level reasoning and structured evidence aggregation. However, existing graph-based RAG frameworks heavily rely on exploiting large language models (LLMs) during indexing and querying, leading to high token consumption, computational cost and latency overhead. In this paper, we propose LiteSemRAG, a lightweight, fully LLM-free, semantic-aware graph retrieval framework. LiteSemRAG constructs a heterogeneous semantic graph by exploiting contextual token-level embeddings, explicitly separating surface lexical representations from context-dependent semantic meanings. To robustly model polysemy, we introduce a dynamic semantic node construction mechanism with chunk-level context aggregation and adaptive anomaly handling. At query stage, LiteSemRAG performs a two-step semantic-aware retrieval process that integrates co-occurrence graph weighting with an isolated semantic recovery mechanism, enabling balanced structural reasoning and semantic coverage. We evaluate LiteSemRAG on three benchmark datasets and experimental results show that LiteSemRAG achieves the best mean reciprocal rank (MRR@10) across all datasets and competitive or superior recall rate (Recall@10) compared to state-of-the-art LLM-based graph RAG systems. Meanwhile, LiteSemRAG consumes zero LLM tokens and achieves substantial efficiency improvements in both indexing and querying due to the elimination of LLM usage. These results demonstrate the effectiveness of LiteSemRAG, indicating that a strong semantic-aware graph retrieval framework can be achieved without relying on LLM-based approaches.
- Abstract(参考訳): グラフベースのRetrieval-Augmented Generation (RAG)は、多レベル推論と構造化されたエビデンスアグリゲーションを改善する大きな可能性を示している。
しかし、既存のグラフベースのRAGフレームワークはインデックス作成とクエリ中に大きな言語モデル(LLM)を活用することに大きく依存しているため、トークンの消費、計算コスト、レイテンシーのオーバーヘッドが高くなる。
本稿では,LLMフリーでセマンティックなグラフ検索フレームワークLiteSemRAGを提案する。
LiteSemRAGは文脈的トークンレベルの埋め込みを利用して異種意味グラフを構築し、文脈依存の意味から表面の語彙表現を明確に分離する。
階層レベルのコンテキストアグリゲーションと適応的異常処理を備えた動的セマンティックノード構築機構を導入する。
クエリの段階では、LiteSemRAGは2段階のセマンティック・アウェア検索プロセスを実行し、コクレンスグラフ重み付けと分離されたセマンティックリカバリ機構を統合し、バランスの取れた構造的推論とセマンティックカバレッジを実現する。
我々は,LiteSemRAGを3つのベンチマークデータセットで評価し,LiteSemRAGが全てのデータセットで最高の平均相互ランク(MRR@10)を達成することを示す。
一方、LiteSemRAGはゼロのLLMトークンを消費し、LLM使用の排除によるインデックス化とクエリの両面で大幅な効率向上を実現している。
これらの結果はLLMベースのアプローチを使わずに強力な意味認識グラフ検索フレームワークを実現できることを示す。
関連論文リスト
- Improving LLM Reasoning with Homophily-aware Structural and Semantic Text-Attributed Graph Compression [55.51959317490934]
大規模言語モデル(LLM)は、テキスト分散グラフ(TAG)理解において有望な能力を示している。
グラフは本来、構造情報や意味情報を豊富に含むものであり、それらの有効利用はLLMの推論性能の潜在的な利益を解放する可能性があると論じる。
グラフホモフィリーの活用を目的としたフレームワーク LLMs (HS2C) のホモフィリー対応構造とセマンティック圧縮を提案する。
論文 参考訳(メタデータ) (2026-01-13T03:35:18Z) - GLOW: Graph-Language Co-Reasoning for Agentic Workflow Performance Prediction [51.83437071408662]
本稿では,AW性能予測のための統合フレームワークGLOWを提案する。
GLOWは、GNNのグラフ構造モデリング能力とLLMの推論能力を組み合わせる。
FLORA-Benchの実験では、GLOWは予測精度とランキングユーティリティにおいて最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2025-12-11T13:30:46Z) - DAG-Math: Graph-Guided Mathematical Reasoning in LLMs [54.231935013127206]
大型言語モデル (LLM) は, CoT (Chain-of-Thought) による数学的問題に対して高い性能を示す
我々は、有向非巡回グラフ(DAG)上の一定の規則に基づくプロセスとしてCoTをモデル化することを提案する。
ここでは,モデルのCoT軌道がDAG構造にどの程度よく依存するかを定量化する計量である論理的近接性を導入する。
論文 参考訳(メタデータ) (2025-10-19T21:05:17Z) - GRIL: Knowledge Graph Retrieval-Integrated Learning with Large Language Models [59.72897499248909]
本稿では,Large Language Models (LLM) を用いたエンドツーエンド学習のための新しいグラフ検索手法を提案する。
抽出したサブグラフでは, 構造的知識と意味的特徴をそれぞれ軟式トークンと言語化グラフで符号化し, LLMに注入する。
提案手法は、複雑な推論タスクに対する結合グラフ-LLM最適化の強みを検証し、最先端の性能を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-20T02:38:00Z) - SAFT: Structure-Aware Fine-Tuning of LLMs for AMR-to-Text Generation [50.277959544420455]
SAFTは、事前訓練された言語モデルにグラフトポロジーを注入する構造対応の微調整手法である。
変換されたAMRの磁気ラプラシアンから方向感応的な位置エンコーディングを計算する。
SAFTはAMR 3.0に新しい最先端を設定、ベースラインを3.5BLEU改善した。
論文 参考訳(メタデータ) (2025-07-15T18:12:57Z) - MiniRAG: Towards Extremely Simple Retrieval-Augmented Generation [22.512017529583332]
MiniRAG(ミニラグ)は、極端に単純で効率的に設計された新規なレトリーバル拡張世代(RAG)システムである。
MiniRAGは,(1)テキストチャンクと名前付きエンティティを統一構造に結合し,複雑な意味理解への依存を軽減し,(2)高度な言語能力を必要としない効率的な知識発見のためにグラフ構造を利用する軽量なトポロジ強化検索手法を提案する。
論文 参考訳(メタデータ) (2025-01-12T04:44:06Z) - Simple Is Effective: The Roles of Graphs and Large Language Models in Knowledge-Graph-Based Retrieval-Augmented Generation [9.844598565914055]
大きな言語モデル(LLM)は強い推論能力を示すが、幻覚や時代遅れの知識のような制限に直面している。
本稿では、サブグラフを検索する知識グラフ(KG)ベースのRetrieval-Augmented Generation(RAG)フレームワークを拡張するSubgraphRAGを紹介する。
提案手法は,高効率かつフレキシブルなサブグラフ検索を実現するために,並列3重装飾機構を備えた軽量多層パーセプトロンを革新的に統合する。
論文 参考訳(メタデータ) (2024-10-28T04:39:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。