論文の概要: Walk&Retrieve: Simple Yet Effective Zero-shot Retrieval-Augmented Generation via Knowledge Graph Walks
- arxiv url: http://arxiv.org/abs/2505.16849v1
- Date: Thu, 22 May 2025 16:11:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.441688
- Title: Walk&Retrieve: Simple Yet Effective Zero-shot Retrieval-Augmented Generation via Knowledge Graph Walks
- Title(参考訳): Walk&Retrieve:知識グラフウォークによるシンプルで効果的なゼロショット検索生成
- Authors: Martin Böckling, Heiko Paulheim, Andreea Iana,
- Abstract要約: 大きな言語モデル(LLM)は印象的な推論能力を示してきたが、幻覚や時代遅れの知識に悩まされることが多い。
知識グラフ(KG)をベースとしたRetrieval-Augmented Generation(RAG)は、知識ベースから構造化された外部情報に応答を基盤として、これらの欠点を修復する。
しかしながら、多くのKGベースのRAGアプローチでは、(i)KGとテキスト表現の整合、(ii)検索精度と効率のバランス、(iii)動的に更新されたKGに適応する。
- 参考スコア(独自算出の注目度): 2.717314422130497
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have showcased impressive reasoning abilities, but often suffer from hallucinations or outdated knowledge. Knowledge Graph (KG)-based Retrieval-Augmented Generation (RAG) remedies these shortcomings by grounding LLM responses in structured external information from a knowledge base. However, many KG-based RAG approaches struggle with (i) aligning KG and textual representations, (ii) balancing retrieval accuracy and efficiency, and (iii) adapting to dynamically updated KGs. In this work, we introduce Walk&Retrieve, a simple yet effective KG-based framework that leverages walk-based graph traversal and knowledge verbalization for corpus generation for zero-shot RAG. Built around efficient KG walks, our method does not require fine-tuning on domain-specific data, enabling seamless adaptation to KG updates, reducing computational overhead, and allowing integration with any off-the-shelf backbone LLM. Despite its simplicity, Walk&Retrieve performs competitively, often outperforming existing RAG systems in response accuracy and hallucination reduction. Moreover, it demonstrates lower query latency and robust scalability to large KGs, highlighting the potential of lightweight retrieval strategies as strong baselines for future RAG research.
- Abstract(参考訳): 大きな言語モデル(LLM)は印象的な推論能力を示してきたが、幻覚や時代遅れの知識に悩まされることが多い。
知識グラフ(KG)をベースとしたRetrieval-Augmented Generation(RAG)は、知識ベースから構造化された外部情報にLLM応答を接地することで、これらの欠点を修復する。
しかし、多くのKGベースのRAGアプローチは苦戦している。
(i)KGとテキスト表現の整合
二 検索精度及び効率のバランスをとること。
(iii)動的に更新されたKGに適応する。
本稿では、ゼロショットRAGのためのコーパス生成のためのウォークベースのグラフトラバーサルと知識言語化を活用する、シンプルだが効果的なKGベースのフレームワークであるWalk&Retrieveを紹介する。
提案手法は,効率的なKGウォークを中心に構築されており,ドメイン固有のデータの微調整や,KG更新へのシームレスな適応,計算オーバーヘッドの低減,既製のバックボーンLLMとの統合などを必要としない。
その単純さにもかかわらず、ウォーク&レトリーブは競争力があり、しばしば既存のRAGシステムより優れている。
さらに、大規模なKGに対してクエリレイテンシの低減と堅牢なスケーラビリティを実証し、今後のRAG研究の強力なベースラインとして軽量な検索戦略の可能性を強調している。
関連論文リスト
- Enhancing Large Language Models (LLMs) for Telecommunications using Knowledge Graphs and Retrieval-Augmented Generation [52.8352968531863]
大規模言語モデル(LLM)は、汎用自然言語処理タスクにおいて大きな進歩を遂げている。
本稿では,知識グラフ(KG)と検索拡張生成(RAG)技術を組み合わせた新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-31T15:58:08Z) - GLTW: Joint Improved Graph Transformer and LLM via Three-Word Language for Knowledge Graph Completion [52.026016846945424]
我々は、KGの構造情報をエンコードし、それを大規模言語モデルにマージするGLTWと呼ばれる新しい手法を提案する。
具体的には、局所構造情報とグローバル構造情報の両方を効果的に符号化する改良されたグラフ変換器(iGT)を導入する。
また,KG内のすべてのエンティティを分類対象として用いたサブグラフに基づく多分類学習目標を開発し,学習効率を向上する。
論文 参考訳(メタデータ) (2025-02-17T06:02:59Z) - FRAG: A Flexible Modular Framework for Retrieval-Augmented Generation based on Knowledge Graphs [17.477161619378332]
両アプローチの利点を相乗化する新しいフレキシブルなモジュール型KG-RAGフレームワークFRAGを提案する。
知識グラフの代わりにクエリテキストを使用することで、FRAGは柔軟性を維持しながら検索品質を向上させる。
論文 参考訳(メタデータ) (2025-01-17T05:19:14Z) - Simple Is Effective: The Roles of Graphs and Large Language Models in Knowledge-Graph-Based Retrieval-Augmented Generation [9.844598565914055]
大きな言語モデル(LLM)は強い推論能力を示すが、幻覚や時代遅れの知識のような制限に直面している。
本稿では、サブグラフを検索する知識グラフ(KG)ベースのRetrieval-Augmented Generation(RAG)フレームワークを拡張するSubgraphRAGを紹介する。
提案手法は,高効率かつフレキシブルなサブグラフ検索を実現するために,並列3重装飾機構を備えた軽量多層パーセプトロンを革新的に統合する。
論文 参考訳(メタデータ) (2024-10-28T04:39:32Z) - Decoding on Graphs: Faithful and Sound Reasoning on Knowledge Graphs through Generation of Well-Formed Chains [66.55612528039894]
知識グラフ(KG)は質問応答(QA)のための信頼できる知識ソースとして機能する。
我々は、LLMとKGの深い相乗効果を促進する新しいフレームワークであるDoG(Decoding on Graphs)を提案する。
様々なKGQAタスクに対して異なるバックグラウンドKGを用いた実験により、DoGが優れた、堅牢なパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-10-24T04:01:40Z) - Graph-constrained Reasoning: Faithful Reasoning on Knowledge Graphs with Large Language Models [83.28737898989694]
大規模言語モデル(LLM)は知識ギャップと幻覚のために忠実な推論に苦しむ。
グラフ制約推論(GCR)は、KGにおける構造的知識とLLMにおける非構造的推論を橋渡しする新しいフレームワークである。
GCRは最先端のパフォーマンスを達成し、追加のトレーニングをすることなく、見えないKGに対して強力なゼロショット一般化性を示す。
論文 参考訳(メタデータ) (2024-10-16T22:55:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。