論文の概要: Core-based Hierarchies for Efficient GraphRAG
- arxiv url: http://arxiv.org/abs/2603.05207v1
- Date: Thu, 05 Mar 2026 14:17:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.265284
- Title: Core-based Hierarchies for Efficient GraphRAG
- Title(参考訳): 効率的なGraphRAGのためのコアベース階層
- Authors: Jakir Hossain, Ahmet Erdem Sarıyüce,
- Abstract要約: GraphRAGはドキュメントを階層的なコミュニティで要約可能な知識グラフに整理する。
現在のGraphRAGアプローチは、コミュニティ検出にライデンクラスタリングを頼っているが、平均次数が一定であり、ほとんどのノードが低次であるようなスパース知識グラフでは、モジュラリティ最適化は指数関数的に多くの準最適分割を許容する。
これを解決するために、線形時間における決定論的密度認識階層を生成するkコア分解をライデンに置き換えることを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retrieval-Augmented Generation (RAG) enhances large language models by incorporating external knowledge. However, existing vector-based methods often fail on global sensemaking tasks that require reasoning across many documents. GraphRAG addresses this by organizing documents into a knowledge graph with hierarchical communities that can be recursively summarized. Current GraphRAG approaches rely on Leiden clustering for community detection, but we prove that on sparse knowledge graphs, where average degree is constant and most nodes have low degree, modularity optimization admits exponentially many near-optimal partitions, making Leiden-based communities inherently non-reproducible. To address this, we propose replacing Leiden with k-core decomposition, which yields a deterministic, density-aware hierarchy in linear time. We introduce a set of lightweight heuristics that leverage the k-core hierarchy to construct size-bounded, connectivity-preserving communities for retrieval and summarization, along with a token-budget-aware sampling strategy that reduces LLM costs. We evaluate our methods on real-world datasets including financial earnings transcripts, news articles, and podcasts, using three LLMs for answer generation and five independent LLM judges for head-to-head evaluation. Across datasets and models, our approach consistently improves answer comprehensiveness and diversity while reducing token usage, demonstrating that k-core-based GraphRAG is an effective and efficient framework for global sensemaking.
- Abstract(参考訳): Retrieval-Augmented Generation (RAG)は、外部知識を取り入れた大規模言語モデルを強化する。
しかし、既存のベクトルベースの手法は、多くの文書にまたがる推論を必要とするグローバルなセンスメイキングタスクでは失敗することが多い。
GraphRAGは、ドキュメントを階層的なコミュニティを持つ知識グラフに整理し、再帰的に要約することで、この問題に対処する。
現在のGraphRAGアプローチは、コミュニティ検出にライデンクラスタリングを頼っているが、平均次数が一定であり、ほとんどのノードが低次であるスパース知識グラフでは、モジュラリティ最適化は指数関数的に多くの準最適分割を許容するので、ライデンベースのコミュニティは本質的に再現不可能である。
これを解決するために、線形時間における決定論的密度認識階層を生成するkコア分解をライデンに置き換えることを提案する。
我々は、kコア階層を利用して、LLMコストを削減するトークンバジェット対応サンプリング戦略とともに、検索と要約のためのサイズバウンドな接続保存コミュニティを構築するための軽量なヒューリスティックスを提案する。
本手法は,財務報告書,ニュース記事,ポッドキャストなどの実世界のデータセットに対して,回答生成に3つのLCM,ヘッド・ツー・ヘッド評価に5つの独立したLCM判定器を用いて評価する。
データセットとモデル全体にわたって、我々のアプローチは、トークンの使用を減らしながら、解答の包括性と多様性を一貫して改善し、kコアベースのGraphRAGがグローバルなセンスメイキングの効率的かつ効率的なフレームワークであることを実証する。
関連論文リスト
- GILT: An LLM-Free, Tuning-Free Graph Foundational Model for In-Context Learning [50.40400074353263]
グラフニューラルネットワーク(GNN)は、リレーショナルデータを先行する強力なツールであるが、しばしば目に見えないグラフに一般化するのに苦労する。
textbfGraph textbfIn-context textbfL textbfTransformer (GILT)を導入する。
論文 参考訳(メタデータ) (2025-10-06T08:09:15Z) - G-reasoner: Foundation Models for Unified Reasoning over Graph-structured Knowledge [88.82814893945077]
大規模言語モデル(LLM)は複雑な推論において優れているが、静的かつ不完全なパラメトリック知識によって制限される。
最近のグラフ強化RAG (GraphRAG) は、このギャップを補足したグラフを構築し、LLMがそれらを推論できるようにする。
G-reasonerは、様々なグラフ構造化知識を推論するためにグラフと言語基盤モデルを統合した統合フレームワークである。
論文 参考訳(メタデータ) (2025-09-29T04:38:12Z) - GRIL: Knowledge Graph Retrieval-Integrated Learning with Large Language Models [59.72897499248909]
本稿では,Large Language Models (LLM) を用いたエンドツーエンド学習のための新しいグラフ検索手法を提案する。
抽出したサブグラフでは, 構造的知識と意味的特徴をそれぞれ軟式トークンと言語化グラフで符号化し, LLMに注入する。
提案手法は、複雑な推論タスクに対する結合グラフ-LLM最適化の強みを検証し、最先端の性能を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-20T02:38:00Z) - Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - Divide by Question, Conquer by Agent: SPLIT-RAG with Question-Driven Graph Partitioning [62.640169289390535]
SPLIT-RAGは、質問駆動セマンティックグラフ分割と協調サブグラフ検索による制限に対処するマルチエージェントRAGフレームワークである。
革新的なフレームワークは、まずリンク情報のセマンティック分割を作成し、次にタイプ特化知識ベースを使用してマルチエージェントRAGを実現する。
属性対応グラフセグメンテーションは、知識グラフを意味的に一貫性のあるサブグラフに分割し、サブグラフが異なるクエリタイプと整合することを保証する。
階層的なマージモジュールは、論理的検証を通じて、部分グラフ由来の解答間の矛盾を解消する。
論文 参考訳(メタデータ) (2025-05-20T06:44:34Z) - RAKG:Document-level Retrieval Augmented Knowledge Graph Construction [10.013667560362565]
本稿では,自動文書レベルの知識グラフ構築の課題に焦点をあてる。
ドキュメントレベルの検索知識グラフ構築(RAKG)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-14T02:47:23Z) - ArchRAG: Attributed Community-based Hierarchical Retrieval-Augmented Generation [16.204046295248546]
Retrieval-Augmented Generation (RAG) は、外部知識を大規模言語モデルに統合するのに有効であることが証明されている。
我々は、Attributed Community-based Hierarchical RAG (ArchRAG)と呼ばれる新しいグラフベースのRAGアプローチを導入する。
属性付きコミュニティのための新しい階層型インデックス構造を構築し,効果的なオンライン検索手法を開発した。
論文 参考訳(メタデータ) (2025-02-14T03:28:36Z) - Simple Is Effective: The Roles of Graphs and Large Language Models in Knowledge-Graph-Based Retrieval-Augmented Generation [9.844598565914055]
大きな言語モデル(LLM)は強い推論能力を示すが、幻覚や時代遅れの知識のような制限に直面している。
本稿では、サブグラフを検索する知識グラフ(KG)ベースのRetrieval-Augmented Generation(RAG)フレームワークを拡張するSubgraphRAGを紹介する。
提案手法は,高効率かつフレキシブルなサブグラフ検索を実現するために,並列3重装飾機構を備えた軽量多層パーセプトロンを革新的に統合する。
論文 参考訳(メタデータ) (2024-10-28T04:39:32Z) - How to Make LLMs Strong Node Classifiers? [70.14063765424012]
言語モデル(LM)は、グラフニューラルネットワーク(GNN)やグラフトランスフォーマー(GT)など、ドメイン固有のモデルの優位性に挑戦している。
本稿では,ノード分類タスクにおける最先端(SOTA)GNNに匹敵する性能を実現するために,既製のLMを有効活用する手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T08:27:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。