論文の概要: CG-RAG: Research Question Answering by Citation Graph Retrieval-Augmented LLMs
- arxiv url: http://arxiv.org/abs/2501.15067v1
- Date: Sat, 25 Jan 2025 04:18:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-28 13:57:35.201056
- Title: CG-RAG: Research Question Answering by Citation Graph Retrieval-Augmented LLMs
- Title(参考訳): CG-RAG:Citation Graph Retrieval-Augmented LLMによる質問応答
- Authors: Yuntong Hu, Zhihan Lei, Zhongjie Dai, Allen Zhang, Abhinav Angirekula, Zheng Zhang, Liang Zhao,
- Abstract要約: CG-RAG(Contextualized Graph Retrieval-Augmented Generation)は、グラフ構造に疎密な検索信号を統合する新しいフレームワークである。
まず、引用グラフの文脈グラフ表現を提案し、文書内および文書間の明示的および暗黙的な接続を効果的にキャプチャする。
次にLexical-Semantic Graph Retrieval(LeSeGR)を提案する。
第3に,検索したグラフ構造化情報を利用した文脈認識生成手法を提案する。
- 参考スコア(独自算出の注目度): 9.718354494802002
- License:
- Abstract: Research question answering requires accurate retrieval and contextual understanding of scientific literature. However, current Retrieval-Augmented Generation (RAG) methods often struggle to balance complex document relationships with precise information retrieval. In this paper, we introduce Contextualized Graph Retrieval-Augmented Generation (CG-RAG), a novel framework that integrates sparse and dense retrieval signals within graph structures to enhance retrieval efficiency and subsequently improve generation quality for research question answering. First, we propose a contextual graph representation for citation graphs, effectively capturing both explicit and implicit connections within and across documents. Next, we introduce Lexical-Semantic Graph Retrieval (LeSeGR), which seamlessly integrates sparse and dense retrieval signals with graph encoding. It bridges the gap between lexical precision and semantic understanding in citation graph retrieval, demonstrating generalizability to existing graph retrieval and hybrid retrieval methods. Finally, we present a context-aware generation strategy that utilizes the retrieved graph-structured information to generate precise and contextually enriched responses using large language models (LLMs). Extensive experiments on research question answering benchmarks across multiple domains demonstrate that our CG-RAG framework significantly outperforms RAG methods combined with various state-of-the-art retrieval approaches, delivering superior retrieval accuracy and generation quality.
- Abstract(参考訳): 研究質問応答には、科学的文献の正確な検索と文脈的理解が必要である。
しかし、現在のRAG法は、複雑な文書関係と正確な情報検索のバランスをとるのに苦労することが多い。
本稿では,グラフ構造内に疎密な検索信号を統合し,検索効率を向上し,研究質問応答における生成品質を向上させる新しいフレームワークである,コンテキスト付きグラフ検索言語生成(CG-RAG)を紹介する。
まず、引用グラフの文脈グラフ表現を提案し、文書内および文書間の明示的および暗黙的な接続を効果的にキャプチャする。
次にLexical-Semantic Graph Retrieval(LeSeGR)を提案する。
引用グラフ検索における語彙精度と意味理解のギャップを埋め、既存のグラフ検索とハイブリッド検索法への一般化性を示す。
最後に,検索したグラフ構造化情報を利用して,大規模言語モデル(LLM)を用いて,高精度かつ文脈的にリッチな応答を生成するコンテキスト認識生成戦略を提案する。
複数の領域にわたる調査質問応答ベンチマークの広範囲な実験により、我々のCG-RAGフレームワークは、様々な最先端の検索手法と組み合わせてRAG法を著しく上回り、精度と生成品質が向上することを示した。
関連論文リスト
- TrustRAG: An Information Assistant with Retrieval Augmented Generation [73.84864898280719]
TrustRAGは、インデックス付け、検索、生成という3つの視点から、acRAGを強化する新しいフレームワークである。
我々はTrustRAGフレームワークをオープンソース化し、抜粋ベースの質問応答タスク用に設計されたデモスタジオを提供する。
論文 参考訳(メタデータ) (2025-02-19T13:45:27Z) - ArchRAG: Attributed Community-based Hierarchical Retrieval-Augmented Generation [16.204046295248546]
Retrieval-Augmented Generation (RAG) は、外部知識を大規模言語モデルに統合するのに有効であることが証明されている。
我々は、Attributed Community-based Hierarchical RAG (ArchRAG)と呼ばれる新しいグラフベースのRAGアプローチを導入する。
属性付きコミュニティのための新しい階層型インデックス構造を構築し,効果的なオンライン検索手法を開発した。
論文 参考訳(メタデータ) (2025-02-14T03:28:36Z) - Retrieval-Augmented Generation with Graphs (GraphRAG) [84.29507404866257]
Retrieval-augmented Generation (RAG) は、追加情報を取得することによって下流タスクの実行を向上させる強力な技術である。
グラフは、その固有の「エッジで接続されたノード」の性質により、巨大な異種情報と関係情報を符号化する。
従来のRAGとは異なり、多種多様な形式とドメイン固有の関係知識のようなグラフ構造化データのユニークさは、異なるドメインでGraphRAGを設計する際、ユニークで重要な課題を生じさせる。
論文 参考訳(メタデータ) (2024-12-31T06:59:35Z) - DynaGRAG | Exploring the Topology of Information for Advancing Language Understanding and Generation in Graph Retrieval-Augmented Generation [0.0]
知識グラフ内の部分グラフ表現と多様性の向上に焦点をあてて,新しい GRAG フレームワークである Dynamic Graph Retrieval-Agumented Generation (DynaGRAG) を提案する。
実験の結果,DynaGRAGの有効性が示され,言語理解と生成の改善のための部分グラフ表現と多様性の強化の重要性が示された。
論文 参考訳(メタデータ) (2024-12-24T16:06:53Z) - SimGRAG: Leveraging Similar Subgraphs for Knowledge Graphs Driven Retrieval-Augmented Generation [6.568733377722896]
そこで我々はSimGRAG(Simisal Graph Enhanced Retrieval-Augmented Generation)法を提案する。
クエリテキストとナレッジグラフの整合性という課題に効果的に対処する。
SimGRAGは、質問応答と事実検証において最先端のKG駆動RAG法より優れている。
論文 参考訳(メタデータ) (2024-12-17T15:40:08Z) - G-RAG: Knowledge Expansion in Material Science [0.0]
Graph RAGはグラフデータベースを統合して、検索プロセスを強化する。
文書のより詳細な表現を実現するために,エージェントベースの解析手法を実装した。
論文 参考訳(メタデータ) (2024-11-21T21:22:58Z) - GRAG: Graph Retrieval-Augmented Generation [14.98084919101233]
Graph Retrieval-Augmented Generation (GRAG)は、テキストサブグラフを取得する際の根本的な課題に取り組む。
本稿では,線形時間で最適な部分グラフ構造を検索する新たな分割・対数戦略を提案する。
提案手法は現状のRAG法を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-26T10:11:40Z) - G-Retriever: Retrieval-Augmented Generation for Textual Graph Understanding and Question Answering [61.93058781222079]
現実のテキストグラフを対象とするフレキシブルな問合せフレームワークを開発した。
一般のテキストグラフに対する最初の検索拡張生成(RAG)手法を提案する。
G-Retrieverは、このタスクをSteiner Tree最適化問題として定式化し、グラフ上でRAGを実行する。
論文 参考訳(メタデータ) (2024-02-12T13:13:04Z) - Scientific Paper Extractive Summarization Enhanced by Citation Graphs [50.19266650000948]
我々は、引用グラフを活用して、異なる設定下での科学的論文の抽出要約を改善することに重点を置いている。
予備的な結果は、単純な教師なしフレームワークであっても、引用グラフが有用であることを示している。
そこで我々は,大規模ラベル付きデータが利用可能である場合のタスクにおいて,より正確な結果を得るために,グラフベースのスーパービジョン・サムライゼーション・モデル(GSS)を提案する。
論文 参考訳(メタデータ) (2022-12-08T11:53:12Z) - BASS: Boosting Abstractive Summarization with Unified Semantic Graph [49.48925904426591]
BASSは、統合されたセマンティックグラフに基づく抽象的な要約を促進するためのフレームワークである。
文書表現と要約生成の両方を改善するために,グラフベースのエンコーダデコーダモデルを提案する。
実験結果から,提案アーキテクチャは長期文書および複数文書要約タスクに大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2021-05-25T16:20:48Z) - Learning the Implicit Semantic Representation on Graph-Structured Data [57.670106959061634]
グラフ畳み込みネットワークにおける既存の表現学習手法は主に、各ノードの近傍を知覚全体として記述することで設計される。
本稿では,グラフの潜在意味パスを学習することで暗黙的な意味を探索する意味グラフ畳み込みネットワーク(sgcn)を提案する。
論文 参考訳(メタデータ) (2021-01-16T16:18:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。