論文の概要: Exploring the Limitations of Graph Reasoning in Large Language Models
- arxiv url: http://arxiv.org/abs/2402.01805v1
- Date: Fri, 2 Feb 2024 09:45:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 01:52:41.529397
- Title: Exploring the Limitations of Graph Reasoning in Large Language Models
- Title(参考訳): 大規模言語モデルにおけるグラフ推論の限界を探る
- Authors: Palaash Agrawal, Shavak Vasania and Cheston Tan
- Abstract要約: グラフ推論の問題から,5つの異なる大言語モデルに対するグラフ推論の深さを検証した。
グラフのサイズやkショットプロンプトの形式など,さまざまな設定におけるモデルの性能を解析する。
PathCompareと呼ばれる新しいプロンプト技術を提案し、標準プロンプトとCoTと比較してLCMの性能が顕著に向上したことを示す。
- 参考スコア(独自算出の注目度): 5.256237513030104
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pretrained Large Language Models have demonstrated various types of reasoning
capabilities through language-based prompts alone. However, in this paper, we
test the depth of graph reasoning for 5 different LLMs (GPT-4, GPT-3.5,
Claude-2, Llama-2 and Palm-2) through the problems of graph reasoning. In
particular, we design 10 distinct problems of graph traversal, each
representing increasing levels of complexity. Further, we analyze the
performance of models across various settings such as varying sizes of graphs
as well as different forms of k-shot prompting. We highlight various
limitations, biases, and properties of LLMs through this benchmarking process,
such as an inverse relation to the average degrees of freedom of traversal per
node in graphs, the overall negative impact of k-shot prompting on graph
reasoning tasks, and a positive response bias which prevents LLMs from
identifying the absence of a valid solution. Finally, we propose a new
prompting technique specially designed for graph traversal tasks, known as
PathCompare, which shows a notable increase in the performance of LLMs in
comparison to standard prompting and CoT.
- Abstract(参考訳): 事前訓練された大規模言語モデルは、言語ベースのプロンプトだけで様々なタイプの推論能力を示した。
しかし,本稿では,グラフ推論の問題から,5種類のLLM(GPT-4,GPT-3.5,Claude-2,Llama-2,Palm-2)に対するグラフ推論の深さを検証した。
特に、グラフトラバースの10の異なる問題を設計し、それぞれが複雑さのレベルを増すことを示す。
さらに,グラフのサイズやkショットプロンプトの異なる形態など,様々な設定におけるモデルの性能を解析した。
例えば、グラフ内のノード毎のトラバース自由度の平均値に対する逆関係、グラフ推論タスクにおけるkショットの全体的な負の影響、LLMが有効な解の欠如を識別するのを防ぐ正の応答バイアスなどである。
最後に,PathCompareと呼ばれるグラフトラバースタスクに特化して設計された新しいプロンプト手法を提案し,標準プロンプトやCoTと比較して,LCMの性能が顕著に向上したことを示す。
関連論文リスト
- Interactive and Expressive Code-Augmented Planning with Large Language Models [62.799579304821826]
大きな言語モデル(LLM)は、常識的推論と対話的な意思決定において強力な能力を示す。
近年,制御フローなどのコード・アジャセント技術を用いてLCM出力を構造化し,計画性能を向上させる技術が提案されている。
完全コード表現で動的なLEM計画手法であるREPL-Planを提案する。
論文 参考訳(メタデータ) (2024-11-21T04:23:17Z) - NT-LLM: A Novel Node Tokenizer for Integrating Graph Structure into Large Language Models [26.739650151993928]
グラフは、現実世界のシナリオにおける関係を表現するための基本的なデータ構造である。
グラフ関連のタスクにLLM(Large Language Models)を適用することは、大きな課題となる。
我々は,グラフ構造を効率的にエンコードする新しいフレームワークNT-LLM(Node Tokenizer for Large Language Models)を紹介する。
論文 参考訳(メタデータ) (2024-10-14T17:21:57Z) - Graph Reasoning with Large Language Models via Pseudo-code Prompting [25.469214467011362]
本稿では,グラフ問題の解法において,擬似コード命令によるプロンプトが大規模言語モデル(LLM)の性能を向上させるか否かを検討する。
実験により, 疑似符号命令を用いることで, 一般にLLMの性能が向上することが示された。
論文 参考訳(メタデータ) (2024-09-26T14:52:40Z) - Revisiting the Graph Reasoning Ability of Large Language Models: Case Studies in Translation, Connectivity and Shortest Path [53.71787069694794]
大規模言語モデル(LLM)のグラフ推論能力に着目する。
グラフ記述変換,グラフ接続,最短パス問題という3つの基本グラフタスクにおけるLLMの能力を再考する。
この結果から,LLMはテキスト記述によるグラフ構造理解に失敗し,これらの基本課題に対して様々な性能を示すことが可能であることが示唆された。
論文 参考訳(メタデータ) (2024-08-18T16:26:39Z) - Investigating Instruction Tuning Large Language Models on Graphs [37.20541711360419]
グラフ関連のタスクにLLM(Large Language Models)を適用することへの関心が高まっている。
本研究は,実世界のグラフに係わる命令追従型LLMの能力について考察する。
論文 参考訳(メタデータ) (2024-08-10T06:54:35Z) - SELF-GUIDE: Better Task-Specific Instruction Following via Self-Synthetic Finetuning [70.21358720599821]
大規模言語モデル(LLM)は、適切な自然言語プロンプトを提供する際に、多様なタスクを解決するという約束を持っている。
学生LLMからタスク固有の入出力ペアを合成する多段階メカニズムであるSELF-GUIDEを提案する。
ベンチマークの指標から,分類タスクに約15%,生成タスクに18%の絶対的な改善を報告した。
論文 参考訳(メタデータ) (2024-07-16T04:41:58Z) - Can LLM Graph Reasoning Generalize beyond Pattern Memorization? [46.93972334344908]
我々は,大規模言語モデル (LLM) が,合成学習データにおける意味的,数値的,構造的,推論パターンを超えうるか否かを評価し,実世界のグラフベースタスクにおける有用性を向上させる。
トレーニング後のアライメントが現実世界のタスクに最も有望であるのに対して、LLMグラフの推論をパターンを超えて行うことは、依然としてオープンな研究課題である。
論文 参考訳(メタデータ) (2024-06-23T02:59:15Z) - Can Graph Descriptive Order Affect Solving Graph Problems with LLMs? [38.1577036285387]
大規模言語モデル(LLM)は、数学的推論や論理的推論を含む推論タスクにおいて大きな成功を収めた。
従来の研究は様々な手法を用いてLSMのグラフ推論能力について研究してきた。
重要な要素は、主に見過ごされ、グラフ記述がモデルに提示される即時順序である。
論文 参考訳(メタデータ) (2024-02-11T09:46:24Z) - Integrating Graphs with Large Language Models: Methods and Prospects [68.37584693537555]
大規模言語モデル (LLMs) が最前線として登場し、様々なアプリケーションにおいて非並列の長所を示している。
LLMとグラフ構造化データを組み合わせることは、非常に興味深いトピックです。
本稿では、そのような統合を2つの主要なカテゴリに分岐する。
論文 参考訳(メタデータ) (2023-10-09T07:59:34Z) - Can Language Models Solve Graph Problems in Natural Language? [51.28850846990929]
大型言語モデル (LLM) は暗黙的なグラフィカル構造を持つ様々なタスクに採用されている。
自然言語をシミュレーションするグラフベース問題解決のベンチマークであるNLGraphを提案する。
論文 参考訳(メタデータ) (2023-05-17T08:29:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。