論文の概要: GRAG: Graph Retrieval-Augmented Generation
- arxiv url: http://arxiv.org/abs/2405.16506v2
- Date: Mon, 21 Oct 2024 00:55:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:11:41.650526
- Title: GRAG: Graph Retrieval-Augmented Generation
- Title(参考訳): GRAG: グラフ検索拡張世代
- Authors: Yuntong Hu, Zhihan Lei, Zheng Zhang, Bo Pan, Chen Ling, Liang Zhao,
- Abstract要約: Graph Retrieval-Augmented Generation (GRAG)は、テキストサブグラフを取得する際の根本的な課題に取り組む。
本稿では,線形時間で最適な部分グラフ構造を検索する新たな分割・対数戦略を提案する。
提案手法は現状のRAG法を著しく上回っている。
- 参考スコア(独自算出の注目度): 14.98084919101233
- License:
- Abstract: Naive Retrieval-Augmented Generation (RAG) focuses on individual documents during retrieval and, as a result, falls short in handling networked documents which are very popular in many applications such as citation graphs, social media, and knowledge graphs. To overcome this limitation, we introduce Graph Retrieval-Augmented Generation (GRAG), which tackles the fundamental challenges in retrieving textual subgraphs and integrating the joint textual and topological information into Large Language Models (LLMs) to enhance its generation. To enable efficient textual subgraph retrieval, we propose a novel divide-and-conquer strategy that retrieves the optimal subgraph structure in linear time. To achieve graph context-aware generation, incorporate textual graphs into LLMs through two complementary views-the text view and the graph view-enabling LLMs to more effectively comprehend and utilize the graph context. Extensive experiments on graph reasoning benchmarks demonstrate that in scenarios requiring multi-hop reasoning on textual graphs, our GRAG approach significantly outperforms current state-of-the-art RAG methods.
- Abstract(参考訳): Naive Retrieval-Augmented Generation (RAG)は、検索中に個々のドキュメントに焦点を当て、結果として、引用グラフ、ソーシャルメディア、知識グラフなど、多くのアプリケーションで非常に人気があるネットワーク化されたドキュメントを扱うのに不足している。
この制限を克服するため,グラフ検索拡張生成(GRAG)を導入し,テキストサブグラフを検索し,共同でテキストとトポロジ情報を大言語モデル(LLM)に統合することで,その生成を向上する。
効率的なテキストサブグラフ検索を実現するために,線形時間で最適なサブグラフ構造を検索する新たな分割・参照方式を提案する。
グラフコンテキスト認識を実現するために、テキストビューとグラフビュー起動LLMの2つの相補的なビューを通じて、テキストグラフをLLMに組み込んで、グラフコンテキストをより効果的に理解し、活用する。
グラフ推論ベンチマークの大規模な実験により、テキストグラフ上でのマルチホップ推論を必要とするシナリオにおいて、GRAGアプローチは現在の最先端RAG手法よりも大幅に優れていることが示された。
関連論文リスト
- CG-RAG: Research Question Answering by Citation Graph Retrieval-Augmented LLMs [9.718354494802002]
CG-RAG(Contextualized Graph Retrieval-Augmented Generation)は、グラフ構造に疎密な検索信号を統合する新しいフレームワークである。
まず、引用グラフの文脈グラフ表現を提案し、文書内および文書間の明示的および暗黙的な接続を効果的にキャプチャする。
次にLexical-Semantic Graph Retrieval(LeSeGR)を提案する。
第3に,検索したグラフ構造化情報を利用した文脈認識生成手法を提案する。
論文 参考訳(メタデータ) (2025-01-25T04:18:08Z) - Evaluating and Improving Graph to Text Generation with Large Language Models [46.529034150391595]
大規模言語モデル(LLM)は、様々なタスクにおいて大きな可能性を証明している。
我々は、グラフからテキストへの生成タスクにおいて、現在のオープンソース LLM を誘導する包括的な評価を行う。
我々は、新しいグラフからテキストへのデータセット、PlanGTGを導入し、2つのサブタスク、すなわちリオーダーと属性を注釈付けした。
論文 参考訳(メタデータ) (2025-01-24T13:53:54Z) - Exploring Graph Structure Comprehension Ability of Multimodal Large Language Models: Case Studies [7.067145619709089]
本研究では,グラフの可視化が大規模言語モデル(LLM)の性能に与える影響について検討する。
本実験は,純粋テキストグラフ表現に対するマルチモーダルアプローチの有効性を比較した。
論文 参考訳(メタデータ) (2024-09-13T14:26:58Z) - Parameter-Efficient Tuning Large Language Models for Graph Representation Learning [62.26278815157628]
Graph-awareを導入します。
GPEFT - グラフ表現学習のための新しい手法。
グラフニューラルネットワーク(GNN)を用いて、隣接するノードからグラフプロンプトに構造情報をエンコードする。
我々は8つの異なるテキストリッチグラフで実施した総合的な実験を通じて,リンク予測評価において hit@1 と Mean Reciprocal Rank (MRR) の平均 2% の改善を観察し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2024-04-28T18:36:59Z) - G-Retriever: Retrieval-Augmented Generation for Textual Graph Understanding and Question Answering [61.93058781222079]
現実のテキストグラフを対象とするフレキシブルな問合せフレームワークを開発した。
一般のテキストグラフに対する最初の検索拡張生成(RAG)手法を提案する。
G-Retrieverは、このタスクをSteiner Tree最適化問題として定式化し、グラフ上でRAGを実行する。
論文 参考訳(メタデータ) (2024-02-12T13:13:04Z) - When Graph Data Meets Multimodal: A New Paradigm for Graph Understanding
and Reasoning [54.84870836443311]
本稿では,画像エンコーディングとマルチモーダル技術を統合することで,グラフデータの理解と推論を行う新しいパラダイムを提案する。
このアプローチは, GPT-4Vの高度な機能を利用して, 命令応答形式によるグラフデータの理解を可能にする。
研究は、このパラダイムを様々なグラフタイプで評価し、特に中国のOCRパフォーマンスと複雑な推論タスクにおいて、モデルの強みと弱みを強調した。
論文 参考訳(メタデータ) (2023-12-16T08:14:11Z) - Which Modality should I use -- Text, Motif, or Image? : Understanding Graphs with Large Language Models [14.251972223585765]
本稿では,テキスト,画像,モチーフなどの多様性を持つグラフを符号化する新たな手法を提案する。
また、グラフ構造解析において、LLM(Large Language Models)を評価するための新しいベンチマークであるGraphTMIも提示されている。
論文 参考訳(メタデータ) (2023-11-16T12:45:41Z) - Graph Pooling for Graph Neural Networks: Progress, Challenges, and
Opportunities [128.55790219377315]
グラフニューラルネットワークは多くのグラフレベルのタスクの主要なアーキテクチャとして登場した。
グラフプーリングは、グラフ全体の全体的グラフレベル表現を得るためには不可欠である。
論文 参考訳(メタデータ) (2022-04-15T04:02:06Z) - Promoting Graph Awareness in Linearized Graph-to-Text Generation [72.83863719868364]
局所グラフ構造を符号化する線形化モデルの能力を検討する。
本研究は,モデルの暗黙のグラフ符号化の品質を高めるための解法である。
これらの消音足場は、低リソース設定における下流生成の大幅な改善につながることが分かりました。
論文 参考訳(メタデータ) (2020-12-31T18:17:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。