論文の概要: From Chains to Graphs: Self-Structured Reasoning for General-Domain LLMs
- arxiv url: http://arxiv.org/abs/2601.03597v1
- Date: Wed, 07 Jan 2026 05:27:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-08 18:12:46.132834
- Title: From Chains to Graphs: Self-Structured Reasoning for General-Domain LLMs
- Title(参考訳): チェーンからグラフへ:汎用LDMのための自己構造推論
- Authors: Yingjian Chen, Haoran Liu, Yinhong Liu, Sherry T. Tong, Aosong Feng, Jinghui Lu, Juntao Zhang, Yusuke Iwasawa, Yutaka Matsuo, Irene Li,
- Abstract要約: 現実の推論には、複数の前提を統合し、サブプロブレムを並列に解決する必要がある。
最近のアプローチでは、外部に提供されたグラフに依存しており、LCMが独自のグラフ構造化推論を構築し、利用する方法については検討していない。
我々は,LLMが最終回答を生成する前に,その推論プロセスを構造化グラフとして明示的に表現できるフレームワークであるSelf-Graph Reasoning (SGR)を提案する。
- 参考スコア(独自算出の注目度): 52.0811904328273
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) show strong reasoning ability in open-domain question answering, yet their reasoning processes are typically linear and often logically inconsistent. In contrast, real-world reasoning requires integrating multiple premises and solving subproblems in parallel. Existing methods, such as Chain-of-Thought (CoT), express reasoning in a linear textual form, which may appear coherent but frequently leads to inconsistent conclusions. Recent approaches rely on externally provided graphs and do not explore how LLMs can construct and use their own graph-structured reasoning, particularly in open-domain QA. To fill this gap, we novelly explore graph-structured reasoning of LLMs in general-domain question answering. We propose Self-Graph Reasoning (SGR), a framework that enables LLMs to explicitly represent their reasoning process as a structured graph before producing the final answer. We further construct a graph-structured reasoning dataset that merges multiple candidate reasoning graphs into refined graph structures for model training. Experiments on five QA benchmarks across both general and specialized domains show that SGR consistently improves reasoning consistency and yields a 17.74% gain over the base model. The LLaMA-3.3-70B model fine-tuned with SGR performs comparably to GPT-4o and surpasses Claude-3.5-Haiku, demonstrating the effectiveness of graph-structured reasoning.
- Abstract(参考訳): 大きな言語モデル(LLM)は、オープンドメインの質問応答において強力な推論能力を示すが、その推論プロセスは典型的には線形であり、しばしば論理的に矛盾する。
対照的に、現実世界の推論は複数の前提を統合し、サブプロブレムを並列に解決する必要がある。
既存の方法、例えばChain-of-Thought (CoT) は、線形テキスト形式で推論を表現しており、コヒーレントに見えるが、しばしば矛盾した結論をもたらす。
最近のアプローチでは、外部に提供されたグラフに依存しており、特にオープンドメインのQAにおいて、LCMが独自のグラフ構造化推論を構築し、利用する方法については検討していない。
このギャップを埋めるために、一般領域質問応答における LLM のグラフ構造推論を新たに検討する。
我々は,LLMが最終回答を生成する前に,その推論プロセスを構造化グラフとして明示的に表現できるフレームワークであるSelf-Graph Reasoning (SGR)を提案する。
さらに、複数の候補推論グラフをモデルトレーニングのために洗練されたグラフ構造にマージするグラフ構造化推論データセットを構築した。
一般ドメインと専門ドメインの両方にわたる5つのQAベンチマークの実験では、SGRは推論一貫性を一貫して改善し、ベースモデルよりも17.74%向上している。
SGRで微調整されたLLaMA-3.3-70Bモデルは、GPT-4oと互換性があり、Claude-3.5-Haikuを上回り、グラフ構造推論の有効性を示す。
関連論文リスト
- G-reasoner: Foundation Models for Unified Reasoning over Graph-structured Knowledge [88.82814893945077]
大規模言語モデル(LLM)は複雑な推論において優れているが、静的かつ不完全なパラメトリック知識によって制限される。
最近のグラフ強化RAG (GraphRAG) は、このギャップを補足したグラフを構築し、LLMがそれらを推論できるようにする。
G-reasonerは、様々なグラフ構造化知識を推論するためにグラフと言語基盤モデルを統合した統合フレームワークである。
論文 参考訳(メタデータ) (2025-09-29T04:38:12Z) - Rethinking and Benchmarking Large Language Models for Graph Reasoning [36.30471027175558]
グラフ推論のための大規模言語モデル(LLM)は、過去2年間にわたって広く研究されてきた。
近年の研究では、LLMがグラフ推論タスクを扱う可能性を示しているが、その性能は過大評価されている。
論文 参考訳(メタデータ) (2025-09-29T04:10:12Z) - GRIL: Knowledge Graph Retrieval-Integrated Learning with Large Language Models [59.72897499248909]
本稿では,Large Language Models (LLM) を用いたエンドツーエンド学習のための新しいグラフ検索手法を提案する。
抽出したサブグラフでは, 構造的知識と意味的特徴をそれぞれ軟式トークンと言語化グラフで符号化し, LLMに注入する。
提案手法は、複雑な推論タスクに対する結合グラフ-LLM最適化の強みを検証し、最先端の性能を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-20T02:38:00Z) - You Don't Need Pre-built Graphs for RAG: Retrieval Augmented Generation with Adaptive Reasoning Structures [16.867592142212203]
大型言語モデル(LLM)はしばしば幻覚に悩まされ、知識を超えた質問を処理する際に、事実的に誤った文を生成する。
Retrieval-augmented Generation (RAG)は、LLM推論をサポートするために、知識ベースからクエリ関連コンテキストを取得することで、この問題に対処する。
既存のGraphベースのRAGメソッドは、コーパスをグラフに変換するためのコストの高いプロセスに依存しており、圧倒的なトークンコストとアップデートのレイテンシを導入している。
本稿では,推論時に推論構造を動的に抽出し,事前に構築したグラフを使わずに適応検索を誘導するLogicRAGを提案する。
論文 参考訳(メタデータ) (2025-08-08T08:07:40Z) - KisMATH: Do LLMs Have Knowledge of Implicit Structures in Mathematical Reasoning? [4.473915603131591]
思考の連鎖は、多くの推論タスクにおいて、大きな言語モデルの性能を向上させることが示されている。
因果CoTグラフ(Causal CoT Graphs, CCGs)は, 因果トレースから自動的に抽出される非巡回グラフである。
論文 参考訳(メタデータ) (2025-07-15T15:28:37Z) - GraphRAG-Bench: Challenging Domain-Specific Reasoning for Evaluating Graph Retrieval-Augmented Generation [26.654064783342545]
Graph Retrieval Augmented Generation (GraphRAG) は,大規模言語モデル(LLM)の拡張の可能性に対する認識を高めている。
GraphRAGモデルの現在の評価は、主に従来の問合せデータセットに依存している。
GraphRAGモデルを厳格に評価するために設計された大規模ドメイン固有ベンチマークであるGraphRAG-Benchを紹介する。
論文 参考訳(メタデータ) (2025-06-03T03:44:26Z) - Reasoning with Graphs: Structuring Implicit Knowledge to Enhance LLMs Reasoning [73.2950349728376]
大規模言語モデル(LLM)は、幅広いタスクで顕著な成功を収めている。
しかし、彼らは情報片間の関係を理解し、推論する必要があるタスクの推論において、依然として課題に直面している。
この課題は、論理的推論やマルチホップ質問応答など、多段階プロセスに関わるタスクにおいて特に顕著である。
本稿では、まず文脈から明示的なグラフを構築することにより、グラフを用いた推論(RwG)を提案する。
論文 参考訳(メタデータ) (2025-01-14T05:18:20Z) - GRS-QA -- Graph Reasoning-Structured Question Answering Dataset [50.223851616680754]
グラフ推論-構造化質問応答データセット(GRS-QA)を導入する。
既存のM-QAデータセットとは異なり、GRS-QAは推論グラフを構築することで複雑な推論経路を明示的にキャプチャする。
実験により, LLMは, 様々な推論構造を用いて, 問合せ処理を行う際に, 異なる性能を示すことが明らかとなった。
論文 参考訳(メタデータ) (2024-11-01T05:14:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。