論文の概要: Graph-S3: Enhancing Agentic textual Graph Retrieval with Synthetic Stepwise Supervision
- arxiv url: http://arxiv.org/abs/2510.03323v1
- Date: Wed, 01 Oct 2025 13:27:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:58.830223
- Title: Graph-S3: Enhancing Agentic textual Graph Retrieval with Synthetic Stepwise Supervision
- Title(参考訳): Graph-S3: 合成ステップワイド・スーパービジョンによるエージェントテキストグラフ検索の強化
- Authors: Ge Chang, Jinbo Su, Jiacheng Liu, Pengfei Yang, Yuhao Shang, Huiwen Zheng, Hongli Ma, Yan Liang, Yuanchun Li, Yunxin Liu,
- Abstract要約: Graph-$S3$は、LLMベースのレトリバーをベースとしたエージェント型テキストグラフ推論フレームワークである。
提案手法は精度が平均8.1%向上し,F$_1$スコアが9.7%向上した。
- 参考スコア(独自算出の注目度): 11.806233991934725
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A significant portion of real-world data is inherently represented as textual graphs, and integrating these graphs into large language models (LLMs) is promising to enable complex graph-based question answering. However, a key challenge in LLM-based textual graph QA systems lies in graph retrieval, i.e., how to retrieve relevant content from large graphs that is sufficiently informative while remaining compact for the LLM context. Existing retrievers suffer from poor performance since they either rely on shallow embedding similarity or employ interactive retrieving policies that demand excessive data labeling and training cost. To address these issues, we present Graph-$S^3$, an agentic textual graph reasoning framework that employs an LLM-based retriever trained with synthetic stepwise supervision. Instead of rewarding the agent based on the final answers, which may lead to sparse and unstable training signals, we propose to closely evaluate each step of the retriever based on offline-extracted golden subgraphs. Our main techniques include a data synthesis pipeline to extract the golden subgraphs for reward generation and a two-stage training scheme to learn the interactive graph exploration policy based on the synthesized rewards. Based on extensive experiments on three common datasets in comparison with seven strong baselines, our approach achieves an average improvement of 8.1\% in accuracy and 9.7\% in F$_1$ score. The advantage is even higher in more complicated multi-hop reasoning tasks. Our code will be open-sourced.
- Abstract(参考訳): 実世界のデータの大部分は本質的にテキストグラフとして表現されており、これらのグラフを大規模言語モデル(LLM)に統合することで、複雑なグラフベースの質問応答を可能にすることが期待できる。
しかし、LLMベースのテキストグラフQAシステムにおける重要な課題は、グラフ検索、すなわちLLMコンテキストのコンパクトさを維持しながら十分な情報を提供する巨大なグラフから関連コンテンツを取得する方法にある。
既存のレトリバーは、浅い埋め込み類似性に依存するか、過剰なデータラベリングとトレーニングコストを要求するインタラクティブな検索ポリシーを採用するため、パフォーマンスが低下する。
これらの問題に対処するために,LLMベースのレトリバーを用いたエージェント型テキストグラフ推論フレームワークであるGraph-$S^3$を提案する。
最終回答に基づいてエージェントに報酬を与える代わりに、オフライン抽出したゴールデンサブグラフに基づいて、検索者の各ステップを綿密に評価する。
主な技術は、報酬生成のための黄金のサブグラフを抽出するデータ合成パイプラインと、合成された報酬に基づいてインタラクティブなグラフ探索ポリシーを学ぶための2段階のトレーニングスキームである。
7つの強いベースラインと比較して3つの共通のデータセットに関する広範な実験に基づいて、我々の手法は精度が8.1\%、F$_1$スコアが9.7\%の平均的な改善を達成している。
より複雑なマルチホップ推論タスクでは、メリットはさらに大きい。
私たちのコードはオープンソースになります。
関連論文リスト
- GRAIL:Learning to Interact with Large Knowledge Graphs for Retrieval Augmented Reasoning [13.481673780508215]
GRAILは、検索強化推論のための大規模グラフと相互作用するように設計されたフレームワークである。
GRAILは知識グラフ問合せデータセットの平均精度を21.01%改善し、F1改善を22.43%改善する。
論文 参考訳(メタデータ) (2025-08-07T15:34:41Z) - Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - Generalizable LLM Learning of Graph Synthetic Data with Post-training Alignment [38.485929062532925]
本稿では,グラフの一般化可能な学習を,学習後の合成データとの整合性で解き放つことを提案する。
我々はGRPOやDPOといったポストトレーニング後のアライメントアルゴリズムを採用し、合成グラフデータに基づいて、既製のLLMとLLMの両方を微調整する。
大規模な実験により、我々のトレーニング後のアライメントレシピは、5つのデータセットに対して統計的に有意な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2025-06-01T05:39:56Z) - Align-GRAG: Reasoning-Guided Dual Alignment for Graph Retrieval-Augmented Generation [79.75818239774952]
大きな言語モデル(LLM)は目覚ましい能力を示しているが、幻覚や時代遅れの情報といった問題に苦戦している。
Retrieval-augmented Generation (RAG) は、情報検索システム(IR)を用いて、外部知識のLLM出力を基底にすることで、これらの問題に対処する。
本稿では、検索後句における新しい推論誘導二重アライメントフレームワークであるAlign-GRAGを提案する。
論文 参考訳(メタデータ) (2025-05-22T05:15:27Z) - G-Retriever: Retrieval-Augmented Generation for Textual Graph Understanding and Question Answering [61.93058781222079]
現実のテキストグラフを対象とするフレキシブルな問合せフレームワークを開発した。
一般のテキストグラフに対する最初の検索拡張生成(RAG)手法を提案する。
G-Retrieverは、このタスクをSteiner Tree最適化問題として定式化し、グラフ上でRAGを実行する。
論文 参考訳(メタデータ) (2024-02-12T13:13:04Z) - Talk like a Graph: Encoding Graphs for Large Language Models [15.652881653332194]
大規模言語モデル(LLM)による消費用テキストとしてグラフ構造化データを符号化する最初の包括的研究について検討する。
グラフ解析におけるLCMの性能は,(1)グラフ符号化法,(2)グラフ処理自体の性質,(3)興味深いことに,考慮されたグラフの構造の3つの基本レベルによって異なることを示す。
論文 参考訳(メタデータ) (2023-10-06T19:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。