論文の概要: Path-of-Thoughts: Extracting and Following Paths for Robust Relational Reasoning with Large Language Models
- arxiv url: http://arxiv.org/abs/2412.17963v1
- Date: Mon, 23 Dec 2024 20:27:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-25 15:55:39.736586
- Title: Path-of-Thoughts: Extracting and Following Paths for Robust Relational Reasoning with Large Language Models
- Title(参考訳): 思考の経路:大言語モデルを用いたロバスト関係推論のための抽出と追従経路
- Authors: Ge Zhang, Mohammad Ali Alomrani, Hongjian Gu, Jiaming Zhou, Yaochen Hu, Bin Wang, Qun Liu, Mark Coates, Yingxue Zhang, Jianye Hao,
- Abstract要約: 本稿では,関係推論に対処するための新しいフレームワークであるPath-of-Thoughts(PoT)を提案する。
PoTは、問題コンテキスト内の重要なエンティティ、関係、属性を識別するタスクに依存しないグラフを効率的に抽出する。
PoTは、提案された質問に対応するグラフ内の関連する推論連鎖を特定し、潜在的な答えの推論を容易にする。
- 参考スコア(独自算出の注目度): 62.12031550252253
- License:
- Abstract: Large language models (LLMs) possess vast semantic knowledge but often struggle with complex reasoning tasks, particularly in relational reasoning problems such as kinship or spatial reasoning. In this paper, we present Path-of-Thoughts (PoT), a novel framework designed to tackle relation reasoning by decomposing the task into three key stages: graph extraction, path identification, and reasoning. Unlike previous approaches, PoT efficiently extracts a task-agnostic graph that identifies crucial entities, relations, and attributes within the problem context. Subsequently, PoT identifies relevant reasoning chains within the graph corresponding to the posed question, facilitating inference of potential answers. Experimental evaluations on four benchmark datasets, demanding long reasoning chains, demonstrate that PoT surpasses state-of-the-art baselines by a significant margin (maximum 21.3%) without necessitating fine-tuning or extensive LLM calls. Furthermore, as opposed to prior neuro-symbolic methods, PoT exhibits improved resilience against LLM errors by leveraging the compositional nature of graphs.
- Abstract(参考訳): 大規模言語モデル(LLM)は、膨大な意味知識を持っているが、複雑な推論タスク、特に親族関係や空間的推論のような関係推論問題に苦慮することが多い。
本稿では,タスクをグラフ抽出,パス識別,推論という3つの重要な段階に分解することで,関係推論に対処する新しいフレームワークであるPath-of-Thoughts(PoT)を提案する。
従来のアプローチとは異なり、PoTは問題コンテキスト内の重要なエンティティ、関係、属性を識別するタスクに依存しないグラフを効率的に抽出する。
その後、PoTは提案された質問に対応するグラフ内の関連する推論連鎖を特定し、潜在的な答えの推論を容易にする。
長期の推論チェーンを必要とする4つのベンチマークデータセットに対する実験的評価は、PoTが細調整や広範囲なLCM呼び出しを必要とせず、最先端のベースラインを超える(最大21.3%)ことを示した。
さらに、従来のニューロシンボリック法とは対照的に、PoTはグラフの構成的性質を活用することにより、LCMエラーに対するレジリエンスを改善している。
関連論文リスト
- Lost-in-Distance: Impact of Contextual Proximity on LLM Performance in Graph Tasks [10.899834454573215]
大規模言語モデルでは,意味のある文脈データを効率的に取得・処理する能力に障害のある盲点が示される。
本研究では, 損失-in-distance現象の定式化を提案し, 損失-in-distance現象と損失-in-the middle現象が独立に発生することを示す。
論文 参考訳(メタデータ) (2024-10-02T19:45:19Z) - Enhancing Logical Reasoning in Large Language Models through Graph-based Synthetic Data [53.433309883370974]
本研究では,大規模言語モデルの推論能力を高めるための学習信号としてグラフベースの合成推論データを使用することの可能性と限界について検討する。
2つの確立された自然言語推論タスクにおいて,合成グラフに基づく推論データによる教師付き微調整が,他の標準評価ベンチマークでの有効性を損なうことなく,LLMの推論性能を効果的に向上することを示した。
論文 参考訳(メタデータ) (2024-09-19T03:39:09Z) - H-STAR: LLM-driven Hybrid SQL-Text Adaptive Reasoning on Tables [56.73919743039263]
本稿では,2段階のプロセスにシンボル的アプローチと意味的アプローチ(テキスト的アプローチ)を統合し,制約に対処する新しいアルゴリズムを提案する。
実験の結果,H-STARは3つの質問応答(QA)と事実検証データセットにおいて,最先端の手法を大幅に上回っていることがわかった。
論文 参考訳(メタデータ) (2024-06-29T21:24:19Z) - FiDeLiS: Faithful Reasoning in Large Language Model for Knowledge Graph Question Answering [46.41364317172677]
本稿では,知識グラフ質問応答を強化する検索拡張推論手法FiDeLiSを提案する。
FiDeLiSはキーワード付き検索機構を使用し、KGのベクトルベースインデックスから関連エンティティと関係をフェッチする。
我々のアプローチの特徴は、推論経路の選択を最適化するために、自然言語とビームサーチをブレンドすることである。
論文 参考訳(メタデータ) (2024-05-22T17:56:53Z) - Resprompt: Residual Connection Prompting Advances Multi-Step Reasoning in Large Language Models [73.4425450752596]
チェーン・オブ・シント(CoT)のプロンプトによって、大きな言語モデル(LLM)の推論の可能性は著しく解放された。
しかし、標準的なCoTは複数の推論ステップを必要とする問題では効果が低い。
LLMにおける多段階推論を推し進める新しいプロンプト戦略であるRESPROMPTを提案する。
論文 参考訳(メタデータ) (2023-10-07T08:56:28Z) - Beyond Chain-of-Thought, Effective Graph-of-Thought Reasoning in Language Models [74.40196814292426]
本稿では,人間の思考過程をチェーンとしてだけでなく,グラフとしてモデル化するグラフ・オブ・ソート(GoT)推論を提案する。
GoTは人間の思考の連続しない性質を捉え、思考プロセスのより現実的なモデリングを可能にします。
テキストのみの推論タスクとマルチモーダル推論タスクでGoTの性能を評価する。
論文 参考訳(メタデータ) (2023-05-26T02:15:09Z) - DeepGAR: Deep Graph Learning for Analogical Reasoning [31.679051203515655]
アナロジカル推論(アナロジカル推論、Analogical reasoning)は、対象物から対象物への対応関係を発見し、マッピングする過程である。
SMT(Structure-Mapping Theory)は、ターゲットとベースの両方をグラフに抽象化し、アナログ推論の認知過程を形成する。
本稿では,認知理論に基づく制約を仮定することにより,ソースドメインとターゲットドメインの対応を識別する,分析推論(DeepGAR)のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-19T23:12:58Z) - CUP: Curriculum Learning based Prompt Tuning for Implicit Event Argument
Extraction [22.746071199667146]
Implicit Event argument extract (EAE) は、文書に散らばる可能性のある引数を特定することを目的としている。
本稿では,4つの学習段階によって暗黙的EAEを解消する,カリキュラム学習に基づくプロンプトチューニング(CUP)手法を提案する。
さらに,事前学習した言語モデルから関連する知識を引き出すために,プロンプトベースのエンコーダデコーダモデルを統合する。
論文 参考訳(メタデータ) (2022-05-01T16:03:54Z) - MERIt: Meta-Path Guided Contrastive Learning for Logical Reasoning [63.50909998372667]
テキストの論理的ReasonIngに対して,Metaパスを用いたコントラスト学習手法であるMERItを提案する。
2つの新しい戦略が我々の手法の必須要素である。
論文 参考訳(メタデータ) (2022-03-01T11:13:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。