論文の概要: Retrieval-Augmented Generation with Graphs (GraphRAG)
- arxiv url: http://arxiv.org/abs/2501.00309v1
- Date: Tue, 31 Dec 2024 06:59:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-05 17:17:12.211270
- Title: Retrieval-Augmented Generation with Graphs (GraphRAG)
- Title(参考訳): GraphRAG (Retrieval-Augmented Generation with Graphs)
- Authors: Haoyu Han, Yu Wang, Harry Shomer, Kai Guo, Jiayuan Ding, Yongjia Lei, Mahantesh Halappanavar, Ryan A. Rossi, Subhabrata Mukherjee, Xianfeng Tang, Qi He, Zhigang Hua, Bo Long, Tong Zhao, Neil Shah, Amin Javari, Yinglong Xia, Jiliang Tang,
- Abstract要約: Retrieval-augmented Generation (RAG) は、追加情報を取得することによって下流タスクの実行を向上させる強力な技術である。
グラフは、その固有の「エッジで接続されたノード」の性質により、巨大な異種情報と関係情報を符号化する。
従来のRAGとは異なり、多種多様な形式とドメイン固有の関係知識のようなグラフ構造化データのユニークさは、異なるドメインでGraphRAGを設計する際、ユニークで重要な課題を生じさせる。
- 参考スコア(独自算出の注目度): 84.29507404866257
- License:
- Abstract: Retrieval-augmented generation (RAG) is a powerful technique that enhances downstream task execution by retrieving additional information, such as knowledge, skills, and tools from external sources. Graph, by its intrinsic "nodes connected by edges" nature, encodes massive heterogeneous and relational information, making it a golden resource for RAG in tremendous real-world applications. As a result, we have recently witnessed increasing attention on equipping RAG with Graph, i.e., GraphRAG. However, unlike conventional RAG, where the retriever, generator, and external data sources can be uniformly designed in the neural-embedding space, the uniqueness of graph-structured data, such as diverse-formatted and domain-specific relational knowledge, poses unique and significant challenges when designing GraphRAG for different domains. Given the broad applicability, the associated design challenges, and the recent surge in GraphRAG, a systematic and up-to-date survey of its key concepts and techniques is urgently desired. Following this motivation, we present a comprehensive and up-to-date survey on GraphRAG. Our survey first proposes a holistic GraphRAG framework by defining its key components, including query processor, retriever, organizer, generator, and data source. Furthermore, recognizing that graphs in different domains exhibit distinct relational patterns and require dedicated designs, we review GraphRAG techniques uniquely tailored to each domain. Finally, we discuss research challenges and brainstorm directions to inspire cross-disciplinary opportunities. Our survey repository is publicly maintained at https://github.com/Graph-RAG/GraphRAG/.
- Abstract(参考訳): Retrieval-augmented Generation(RAG)は、知識、スキル、ツールなどの追加情報を外部ソースから取得することで、下流タスクの実行を向上させる強力なテクニックである。
Graphは、その固有の"エッジで接続されたノード"の性質によって、巨大な異種およびリレーショナルな情報をエンコードする。
結果として、我々は最近、GraphとRAG、すなわちGraphRAGの装備に注目が集まっているのを目撃した。
しかし、レトリバー、ジェネレータ、外部データソースがニューラル埋め込み空間で一様に設計できる従来のRAGとは異なり、多種多様な形式やドメイン固有の関係知識のようなグラフ構造化データのユニークさは、異なるドメインでGraphRAGを設計する際、ユニークで重要な課題を生じさせる。
幅広い適用性、関連する設計上の課題、最近のGraphRAGの急激な増加を考えると、その重要な概念とテクニックの体系的かつ最新の調査が緊急に望まれている。
このモチベーションに続いて、我々はGraphRAGに関する包括的かつ最新の調査を行う。
調査ではまず,クエリプロセッサ,レトリバー,オーガナイザ,ジェネレータ,データソースなどの主要なコンポーネントを定義することで,汎用的なGraphRAGフレームワークを提案する。
さらに、異なるドメインのグラフが異なるリレーショナルパターンを示し、専用の設計を必要とすることを認識し、各ドメインに特化されたGraphRAG技術についてレビューする。
最後に、学際的機会を刺激する研究課題とブレインストーミングの方向性について論じる。
私たちの調査リポジトリはhttps://github.com/Graph-RAG/GraphRAG/で公開されています。
関連論文リスト
- LEGO-GraphRAG: Modularizing Graph-based Retrieval-Augmented Generation for Design Space Exploration [18.649082227637066]
GraphRAGは、大規模言語モデル(LLM)の推論能力を高めるために、グラフを組込み知識で活用することで、検索拡張生成(RAG)における課題に対処する。
有望な可能性にもかかわらず、GraphRAGコミュニティは現在、グラフベースの知識検索プロセスのきめ細かい分解のための統一されたフレームワークを欠いている。
LEGO-GraphRAGは,GraphRAGの検索プロセスを3つの相互接続モジュールに分解するモジュールフレームワークである。
論文 参考訳(メタデータ) (2024-11-06T15:32:28Z) - RAGraph: A General Retrieval-Augmented Graph Learning Framework [35.25522856244149]
我々は、RAGraph(General Retrieval-Augmented Graph Learning)と呼ばれる新しいフレームワークを紹介する。
RAGraphは、一般的なグラフ基盤モデルに外部グラフデータを導入し、目に見えないシナリオにおけるモデルの一般化を改善する。
推論中、RAGraphは下流タスクにおける重要な類似性に基づいて、似たようなおもちゃのグラフを順応的に検索する。
論文 参考訳(メタデータ) (2024-10-31T12:05:21Z) - Graph Retrieval-Augmented Generation: A Survey [28.979898837538958]
Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)の課題に再トレーニングを必要とせずに対処することに成功した。
本稿では,GraphRAGの方法論について概観する。
Graph-Based Indexing、Graph-Guided Retrieval、Graph-Enhanced Generationを含むGraphRAGワークフローを形式化する。
論文 参考訳(メタデータ) (2024-08-15T12:20:24Z) - Learning Topological Representations with Bidirectional Graph Attention Network for Solving Job Shop Scheduling Problem [27.904195034688257]
既存の学習に基づくジョブショップスケジューリング問題の解法(JSSP)は、通常、非方向性グラフに適した既製のGNNモデルを使用し、解離グラフ(DG)のリッチで有意義な位相構造を無視する。
本稿では,JSSP を解決するための DG を局所検索フレームワークに組み込むためのトポロジ対応双方向グラフアテンションネットワーク (TBGAT) を提案する。
論文 参考訳(メタデータ) (2024-02-27T15:33:20Z) - Position: Graph Foundation Models are Already Here [53.737868336014735]
グラフ基礎モデル(GFM)は、グラフ領域において重要な研究トピックとして浮上している。
グラフ語彙の提唱によるGFM開発のための新しい視点」を提案する。
この観点は、将来のGFM設計を、ニューラルネットワークのスケーリング法則に従って前進させる可能性がある。
論文 参考訳(メタデータ) (2024-02-03T17:24:36Z) - Graph Domain Adaptation: Challenges, Progress and Prospects [61.9048172631524]
本稿では,グラフ間の効果的な知識伝達パラダイムとしてグラフ領域適応を提案する。
GDAは、ソースグラフとしてタスク関連のグラフを多数導入し、ソースグラフから学習した知識をターゲットグラフに適応させる。
研究状況と課題について概説し、分類学を提案し、代表作の詳細を紹介し、今後の展望について論じる。
論文 参考訳(メタデータ) (2024-02-01T02:44:32Z) - Graph Prompt Learning: A Comprehensive Survey and Beyond [24.64987655155218]
本稿では,AGI(Artificial General Intelligence)におけるグラフプロンプトの出現領域に関する先駆的な調査を紹介する。
本稿では,グラフ領域におけるプロンプトトークン,トークン構造,挿入パターンを明確にし,グラフプロンプト学習を理解するための統一的なフレームワークを提案する。
包括的な分類学では、この分野の100以上の著作を分類し、ノードレベル、エッジレベル、グラフレベルの目的にまたがる事前学習タスクと整合させる。
論文 参考訳(メタデータ) (2023-11-28T05:36:59Z) - Graph Pooling for Graph Neural Networks: Progress, Challenges, and
Opportunities [128.55790219377315]
グラフニューラルネットワークは多くのグラフレベルのタスクの主要なアーキテクチャとして登場した。
グラフプーリングは、グラフ全体の全体的グラフレベル表現を得るためには不可欠である。
論文 参考訳(メタデータ) (2022-04-15T04:02:06Z) - A Robust and Generalized Framework for Adversarial Graph Embedding [73.37228022428663]
本稿では,AGE という逆グラフ埋め込みのための頑健なフレームワークを提案する。
AGEは、暗黙の分布から強化された負のサンプルとして偽の隣接ノードを生成する。
本フレームワークでは,3種類のグラフデータを扱う3つのモデルを提案する。
論文 参考訳(メタデータ) (2021-05-22T07:05:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。