論文の概要: Graph-Guided Reasoning for Multi-Hop Question Answering in Large
Language Models
- arxiv url: http://arxiv.org/abs/2311.09762v1
- Date: Thu, 16 Nov 2023 10:36:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-17 14:54:56.853764
- Title: Graph-Guided Reasoning for Multi-Hop Question Answering in Large
Language Models
- Title(参考訳): 大規模言語モデルにおけるマルチホップ質問応答のためのグラフガイド推論
- Authors: Jinyoung Park, Ameen Patel, Omar Zia Khan, Hyunwoo J. Kim, Joo-Kyung
Kim
- Abstract要約: Chain-of-Thought (CoT) のプロンプトにより,Large Language Models (LLM) の多段階推論能力が向上した。
我々は、CoTが生成する推論経路を分析し、多段階推論において2つの問題を見つける。
グラフ誘導型CoTプロンプト手法を提案する。
- 参考スコア(独自算出の注目度): 17.62922811004786
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Chain-of-Thought (CoT) prompting has boosted the multi-step reasoning
capabilities of Large Language Models (LLMs) by generating a series of
rationales before the final answer. We analyze the reasoning paths generated by
CoT and find two issues in multi-step reasoning: (i) Generating rationales
irrelevant to the question, (ii) Unable to compose subquestions or queries for
generating/retrieving all the relevant information. To address them, we propose
a graph-guided CoT prompting method, which guides the LLMs to reach the correct
answer with graph representation/verification steps. Specifically, we first
leverage LLMs to construct a "question/rationale graph" by using knowledge
extraction prompting given the initial question and the rationales generated in
the previous steps. Then, the graph verification step diagnoses the current
rationale triplet by comparing it with the existing question/rationale graph to
filter out irrelevant rationales and generate follow-up questions to obtain
relevant information. Additionally, we generate CoT paths that exclude the
extracted graph information to represent the context information missed from
the graph extraction. Our graph-guided reasoning method shows superior
performance compared to previous CoT prompting and the variants on multi-hop
question answering benchmark datasets.
- Abstract(参考訳): chain-of-thought(cot)プロンプトは、最終回答の前に一連の根拠を生成することによって、大規模言語モデル(llm)の多段階推論能力を高めた。
cotが生成する推論経路を分析し,多段階推論における2つの問題点を見出す。
(i)問題と無関係な合理性を生み出すこと。
(ii)関連するすべての情報の生成及び取得のためのサブクエストやクエリを作成できないこと。
そこで本研究では,LLMをグラフ表現/検証ステップで正しい解に導くためのグラフ誘導CoTプロンプト手法を提案する。
具体的には,まず LLM を利用して,初期質問と先行ステップで生成した有理性に基づいて知識抽出を行うことにより,「探索/論理グラフ」を構築する。
そして、グラフ検証ステップは、既存の問合せグラフと比較して現在の合理化三重項を診断し、無関係な理化をフィルタリングし、フォローアップ質問を生成して関連情報を得る。
さらに,抽出したグラフ情報を除外したCoTパスを生成し,グラフ抽出から欠落したコンテキスト情報を表現する。
グラフ誘導推論手法は,従来のCoTプロンプトやマルチホップ質問応答ベンチマークデータセットの変種よりも優れた性能を示す。
関連論文リスト
- G-Retriever: Retrieval-Augmented Generation for Textual Graph Understanding and Question Answering [61.93058781222079]
現実のテキストグラフを対象とするフレキシブルな問合せフレームワークを開発した。
本手法は,テキスト応答とグラフの関連部分をハイライトする。
論文 参考訳(メタデータ) (2024-02-12T13:13:04Z) - Prompting Large Language Models with Chain-of-Thought for Few-Shot
Knowledge Base Question Generation [19.327008532572645]
知識ベースに関する質問生成(KBQG)は、論理形式を自然言語の質問に変換することを目的としている。
推論のためのコンテキスト内学習戦略であるChain-of-Thoughtプロンプトを提案する。
3つのKBQGデータセットに対して広範な実験を行う。
論文 参考訳(メタデータ) (2023-10-12T15:08:14Z) - Resprompt: Residual Connection Prompting Advances Multi-Step Reasoning in Large Language Models [73.4425450752596]
チェーン・オブ・シント(CoT)のプロンプトによって、大きな言語モデル(LLM)の推論の可能性は著しく解放された。
しかし、標準的なCoTは複数の推論ステップを必要とする問題では効果が低い。
LLMにおける多段階推論を推し進める新しいプロンプト戦略であるRESPROMPTを提案する。
論文 参考訳(メタデータ) (2023-10-07T08:56:28Z) - Single Sequence Prediction over Reasoning Graphs for Multi-hop QA [8.442412179333205]
局所推論グラフ(モデル)フットノートコード/モデル上での単一シーケンス予測手法を提案する。
グラフニューラルネットワークを用いて、このグラフ構造を符号化し、結果の表現をモデルのエンティティ表現に融合する。
実験の結果, 正確なマッチング/F1のスコアと, 推論経路におけるグラウンドの忠実度は有意に向上した。
論文 参考訳(メタデータ) (2023-07-01T13:15:09Z) - Towards Graph-hop Retrieval and Reasoning in Complex Question Answering
over Textual Database [15.837457557803507]
Graph-Hopは、複雑な質問応答における新しいマルチチェーンとマルチホップ検索および推論パラダイムである。
我々はReasonGraphQAと呼ばれる新しいベンチマークを構築し、複雑な問題に対して明確できめ細かいエビデンスグラフを提供する。
論文 参考訳(メタデータ) (2023-05-23T16:28:42Z) - Can Language Models Solve Graph Problems in Natural Language? [51.28850846990929]
大型言語モデル (LLM) は暗黙的なグラフィカル構造を持つ様々なタスクに採用されている。
自然言語をシミュレーションするグラフベース問題解決のベンチマークであるNLGraphを提案する。
論文 参考訳(メタデータ) (2023-05-17T08:29:21Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z) - Dynamic Semantic Graph Construction and Reasoning for Explainable
Multi-hop Science Question Answering [50.546622625151926]
マルチホップQAのための説明可能性を得ながら,より有効な事実を活用できる新しいフレームワークを提案する。
a) tt AMR-SG,(a) tt AMR-SG,(a) tt AMR-SG,(a) tt AMR-SG,(c) グラフ畳み込みネットワーク(GCN)を利用した事実レベルの関係モデリング,(c) 推論過程の導出を行う。
論文 参考訳(メタデータ) (2021-05-25T09:14:55Z) - SRLGRN: Semantic Role Labeling Graph Reasoning Network [22.06211725256875]
この研究は、マルチホップ質問応答(QA)に対する学習と推論の課題を扱う。
本稿では,文の意味構造に基づくグラフ推論ネットワークを提案し,段落間の推論経路を学習する。
提案手法は,最近の最先端モデルと比較して,HotpotQAトラクタ設定ベンチマークにおける競合性能を示す。
論文 参考訳(メタデータ) (2020-10-07T18:51:17Z) - Semantic Graphs for Generating Deep Questions [98.5161888878238]
本稿では、まず、入力文書のセマンティックレベルグラフを構築し、次にアテンションベースのGGNN(Att-GGNN)を導入してセマンティックグラフを符号化する新しいフレームワークを提案する。
HotpotQAのDeep-question中心のデータセットでは、複数の事実の推論を必要とする問題よりもパフォーマンスが大幅に向上し、最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2020-04-27T10:52:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。