論文の概要: Inference Scaled GraphRAG: Improving Multi Hop Question Answering on Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2506.19967v1
- Date: Tue, 24 Jun 2025 19:31:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 21:00:42.518993
- Title: Inference Scaled GraphRAG: Improving Multi Hop Question Answering on Knowledge Graphs
- Title(参考訳): 推論スケールグラフRAG:知識グラフによるマルチホップ質問応答の改善
- Authors: Travis Thompson, Seung-Hwan Lim, Paul Liu, Ruoying He, Dongkuan Xu,
- Abstract要約: 大きな言語モデル(LLM)は、言語理解と生成において印象的な能力を達成した。
構造化コンテキストやマルチホップ情報へのアクセスが限られているため、知識集約的推論タスクではパフォーマンスが低下し続けています。
Inference-Scaled GraphRAGは、推論時間計算のスケーリングを適用してLLMベースのグラフ推論を強化する新しいフレームワークである。
- 参考スコア(独自算出の注目度): 15.036480111358369
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have achieved impressive capabilities in language understanding and generation, yet they continue to underperform on knowledge-intensive reasoning tasks due to limited access to structured context and multi-hop information. Retrieval-Augmented Generation (RAG) partially mitigates this by grounding generation in retrieved context, but conventional RAG and GraphRAG methods often fail to capture relational structure across nodes in knowledge graphs. We introduce Inference-Scaled GraphRAG, a novel framework that enhances LLM-based graph reasoning by applying inference-time compute scaling. Our method combines sequential scaling with deep chain-of-thought graph traversal, and parallel scaling with majority voting over sampled trajectories within an interleaved reasoning-execution loop. Experiments on the GRBench benchmark demonstrate that our approach significantly improves multi-hop question answering performance, achieving substantial gains over both traditional GraphRAG and prior graph traversal baselines. These findings suggest that inference-time scaling is a practical and architecture-agnostic solution for structured knowledge reasoning with LLMs
- Abstract(参考訳): 大規模言語モデル(LLM)は、言語理解と生成において目覚ましい能力を達成したが、構造化されたコンテキストやマルチホップ情報へのアクセスに制限があるため、知識集約的な推論タスクではパフォーマンスが低下し続けている。
Retrieval-Augmented Generation (RAG) は、検索した文脈で生成を基底にすることでこれを部分的に緩和するが、従来のRAG法とGraphRAG法は知識グラフのノード間の関係構造を捉えるのに失敗することが多い。
Inference-Scaled GraphRAGは、推論時間計算のスケーリングを適用してLLMベースのグラフ推論を強化する新しいフレームワークである。
提案手法は,シーケンシャルスケーリングとディープチェーン・オブ・ソート・グラフ・トラバーサル,および並列スケーリングと,インターリーブド・推論・実行ループ内のサンプルトラジェクトリに対する多数投票を併用する。
GRBenchベンチマーク実験により,提案手法はマルチホップ質問応答性能を著しく向上し,従来のGraphRAGと従来のグラフトラバースベースラインの双方よりも大幅に向上することを示した。
これらの結果から,LLMを用いた構造化知識推論における推論時間スケーリングは実用的でアーキテクチャに依存しない解であることが示唆された。
関連論文リスト
- HELP: HyperNode Expansion and Logical Path-Guided Evidence Localization for Accurate and Efficient GraphRAG [53.30561659838455]
大きな言語モデル(LLM)は、しばしば固有の知識境界と幻覚に苦しむ。
Retrieval-Augmented Generation (RAG) は、マルチホップ推論に不可欠な構造的相互依存性をしばしば見落としている。
ヘルプは、複数の単純でマルチホップなQAベンチマークで競合性能を達成し、グラフベースのRAGベースラインよりも28.8$times$のスピードアップを実現している。
論文 参考訳(メタデータ) (2026-02-24T14:05:29Z) - ProGraph-R1: Progress-aware Reinforcement Learning for Graph Retrieval Augmented Generation [37.11787010202267]
ProGraph-R1は,グラフベースの検索と多段階推論のためのプログレッシブ・エージェント・フレームワークである。
ProGraph-R1は、意味的関連性とグラフ接続性について共同で検討する構造対応のハイパーグラフ検索機構を導入している。
マルチホップ質問応答ベンチマークの実験では、ProGraph-R1は既存のGraphRAG法よりも推論精度と生成品質を一貫して改善している。
論文 参考訳(メタデータ) (2026-01-25T08:58:44Z) - G-reasoner: Foundation Models for Unified Reasoning over Graph-structured Knowledge [88.82814893945077]
大規模言語モデル(LLM)は複雑な推論において優れているが、静的かつ不完全なパラメトリック知識によって制限される。
最近のグラフ強化RAG (GraphRAG) は、このギャップを補足したグラフを構築し、LLMがそれらを推論できるようにする。
G-reasonerは、様々なグラフ構造化知識を推論するためにグラフと言語基盤モデルを統合した統合フレームワークである。
論文 参考訳(メタデータ) (2025-09-29T04:38:12Z) - Enrich-on-Graph: Query-Graph Alignment for Complex Reasoning with LLM Enriching [61.824094419641575]
大言語モデル(LLM)は知識グラフ質問応答(KGQA)のような知識集約的なシナリオにおける幻覚と事実的誤りに苦しむ
これは、構造化知識グラフ(KG)と非構造化クエリのセマンティックギャップによるもので、その焦点や構造に固有の違いが原因である。
既存の手法は通常、バニラKGの資源集約的で非スケーリング可能な推論を用いるが、このギャップを見落としている。
我々は、LLMの事前知識を活用してKGを充実させる柔軟なフレームワークEnrich-on-Graph(EoG)を提案し、グラフとクエリ間のセマンティックギャップを埋める。
論文 参考訳(メタデータ) (2025-09-25T06:48:52Z) - GRIL: Knowledge Graph Retrieval-Integrated Learning with Large Language Models [59.72897499248909]
本稿では,Large Language Models (LLM) を用いたエンドツーエンド学習のための新しいグラフ検索手法を提案する。
抽出したサブグラフでは, 構造的知識と意味的特徴をそれぞれ軟式トークンと言語化グラフで符号化し, LLMに注入する。
提案手法は、複雑な推論タスクに対する結合グラフ-LLM最適化の強みを検証し、最先端の性能を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-20T02:38:00Z) - Graph-R1: Towards Agentic GraphRAG Framework via End-to-end Reinforcement Learning [20.05893083101089]
Graph-R1は、エンドツーエンド強化学習(RL)によるエージェントGraphRAGフレームワークである
軽量な知識ハイパーグラフ構築、マルチターンエージェント環境相互作用としてのモデル検索を導入している。
標準RAGデータセットの実験では、Graph-R1は、精度、検索効率、生成品質を推算する従来のGraphRAGおよびRL強化RAGメソッドよりも優れていた。
論文 参考訳(メタデータ) (2025-07-29T15:01:26Z) - GLANCE: Graph Logic Attention Network with Cluster Enhancement for Heterophilous Graph Representation Learning [54.60090631330295]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習する上で大きな成功を収めている。
本稿では,論理誘導推論,動的グラフ改善,適応クラスタリングを統合し,グラフ表現学習を強化する新しいフレームワークであるGLANCEを提案する。
論文 参考訳(メタデータ) (2025-07-24T15:45:26Z) - Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - XGraphRAG: Interactive Visual Analysis for Graph-based Retrieval-Augmented Generation [16.068460356582648]
本研究では、RAG開発者がGraphRAGの重要なリコールを特定するのに役立つ視覚分析フレームワークを提案する。
我々は,ユーザ分析プロセスを容易にするために,インタラクティブな視覚化のセットを取り入れたプロトタイプシステムであるXGraphRAGを開発した。
論文 参考訳(メタデータ) (2025-06-10T09:14:30Z) - When to use Graphs in RAG: A Comprehensive Analysis for Graph Retrieval-Augmented Generation [25.508719115522645]
グラフ検索強化世代(GraphRAG)は、外部知識で大規模言語モデル(LLM)を拡張するための強力なパラダイムとして登場した。
最近の研究では、GraphRAGは多くの現実世界のタスクにおいてバニラRAGを過小評価している。
GraphRAGは本当に有効か、グラフ構造がRAGシステムに測定可能なメリットを提供するシナリオは存在するのか?
論文 参考訳(メタデータ) (2025-06-06T02:37:47Z) - Align-GRAG: Reasoning-Guided Dual Alignment for Graph Retrieval-Augmented Generation [75.9865035064794]
大きな言語モデル(LLM)は目覚ましい能力を示しているが、幻覚や時代遅れの情報といった問題に苦戦している。
Retrieval-augmented Generation (RAG) は、情報検索システム(IR)を用いて、外部知識のLLM出力を基底にすることで、これらの問題に対処する。
本稿では、検索後句における新しい推論誘導二重アライメントフレームワークであるAlign-GRAGを提案する。
論文 参考訳(メタデータ) (2025-05-22T05:15:27Z) - NodeRAG: Structuring Graph-based RAG with Heterogeneous Nodes [25.173078967881803]
Retrieval-augmented Generation (RAG)は、大規模な言語モデルに対して、外部およびプライベートコーパスへのアクセスを許可する。
現在のグラフベースのRAGアプローチは、グラフ構造の設計をほとんど優先順位付けしない。
不適切な設計のグラフは、多様なグラフアルゴリズムのシームレスな統合を妨げるだけでなく、ワークフローの不整合をもたらす。
異種グラフ構造を導入したグラフ中心のフレームワークであるNodeRAGを提案する。
論文 参考訳(メタデータ) (2025-04-15T18:24:00Z) - Deep Temporal Graph Clustering [77.02070768950145]
深部時間グラフクラスタリング(GC)のための汎用フレームワークを提案する。
GCは、時間グラフの相互作用シーケンスに基づくバッチ処理パターンに適合するディープクラスタリング技術を導入している。
我々のフレームワークは、既存の時間グラフ学習手法の性能を効果的に向上させることができる。
論文 参考訳(メタデータ) (2023-05-18T06:17:50Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。