論文の概要: Graph Descriptive Order Improves Reasoning with Large Language Model
- arxiv url: http://arxiv.org/abs/2402.07140v2
- Date: Tue, 20 Feb 2024 03:13:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 19:26:52.803822
- Title: Graph Descriptive Order Improves Reasoning with Large Language Model
- Title(参考訳): グラフ記述順序が大規模言語モデルによる推論を改善する
- Authors: Yuyao Ge, Shenghua Liu, Wenjie Feng, Lingrui Mei, Lizhe Chen, Xueqi
Cheng
- Abstract要約: グラフ記述順序がLLMのグラフ推論性能に与える影響を明らかにする。
本稿では,LLMの性能をグラフサイズで評価するためのスケールドグラフ推論ベンチマークを提案する。
LLMのグラフ推論性能はグラフサイズの増加とともに単調に低下しないことがわかった。
- 参考スコア(独自算出の注目度): 40.52189139023898
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, large language models have achieved state-of-the-art
performance across multiple domains. However, the progress in the field of
graph reasoning with LLM remains limited. Our work delves into this gap by
thoroughly investigating graph reasoning with LLMs. In this work, we reveal the
impact of the order of graph description on LLMs' graph reasoning performance,
which significantly affects LLMs' reasoning abilities. By altering this order,
we enhance the performance of LLMs from 42.22\% to 70\%. Furthermore, we
introduce the Scaled Graph Reasoning benchmark for assessing LLMs' performance
across various graph sizes and evaluate the relationship between LLMs' graph
reasoning abilities and graph size. We discover that the graph reasoning
performance of LLMs does not monotonically decrease with the increase in graph
size. The experiments span several mainstream models, including GPT-3.5,
LLaMA-2-7B, and LLaMA-2-13B, to offer a comprehensive evaluation.
- Abstract(参考訳): 近年、大規模言語モデルは複数のドメインで最先端のパフォーマンスを実現している。
しかし、LLMによるグラフ推論の分野の進歩は依然として限られている。
LLMによるグラフ推論を徹底的に研究することで、このギャップを埋めることができます。
本研究では,LLMのグラフ推論性能にグラフ記述順序が与える影響を明らかにする。
この順序を変更することにより, LLMの性能を42.22\%から70\%に向上する。
さらに,LLMの性能を様々なグラフサイズで評価するためのスケールドグラフ推論ベンチマークを導入し,LLMのグラフ推論能力とグラフサイズとの関係を評価する。
LLMのグラフ推論性能はグラフサイズの増加とともに単調に低下しないことがわかった。
実験は、GPT-3.5、LLaMA-2-7B、LLaMA-2-13Bを含むいくつかの主流モデルにまたがって、包括的な評価を提供する。
関連論文リスト
- A Hierarchical Language Model For Interpretable Graph Reasoning [47.460255447561906]
ノード中心の局所情報と相互作用中心のグローバル構造を捉えるために2ブロックアーキテクチャを用いる階層型グラフ言語モデル(HLM-G)を導入する。
提案手法は,大規模グラフ処理における計算コストを削減しつつ,高い効率性,効率性,ロバスト性で様々なグラフクエリに対処することを可能にする。
多様なグラフ推論およびノード,リンク,グラフレベルの実世界のタスクに対する総合的な評価は,本手法の優位性を強調している。
論文 参考訳(メタデータ) (2024-10-29T00:28:02Z) - How Do Large Language Models Understand Graph Patterns? A Benchmark for Graph Pattern Comprehension [53.6373473053431]
この研究は、グラフパターンタスクにおける大規模言語モデルの能力を評価するためのベンチマークを導入する。
我々は,LLMが用語的記述と位相的記述の両方に基づいて,グラフパターンを理解できるかどうかを評価するベンチマークを開発した。
私たちのベンチマークでは、合成データセットと実際のデータセットの両方と、11のタスクと7のモデルで構成されています。
論文 参考訳(メタデータ) (2024-10-04T04:48:33Z) - GraphInsight: Unlocking Insights in Large Language Models for Graph Structure Understanding [17.724492441325165]
大規模言語モデル(LLM)は、グラフ記述シーケンスのプロンプトを通じてグラフィカルな構造情報を理解するのに苦労する。
マクロおよびマイクロレベルのグラフィカル情報に対するLLMの理解を改善するための新しいフレームワークであるGraphInsightを提案する。
論文 参考訳(メタデータ) (2024-09-05T05:34:16Z) - Revisiting the Graph Reasoning Ability of Large Language Models: Case Studies in Translation, Connectivity and Shortest Path [53.71787069694794]
大規模言語モデル(LLM)のグラフ推論能力に着目する。
グラフ記述変換,グラフ接続,最短パス問題という3つの基本グラフタスクにおけるLLMの能力を再考する。
この結果から,LLMはテキスト記述によるグラフ構造理解に失敗し,これらの基本課題に対して様々な性能を示すことが可能であることが示唆された。
論文 参考訳(メタデータ) (2024-08-18T16:26:39Z) - Investigating Instruction Tuning Large Language Models on Graphs [37.20541711360419]
グラフ関連のタスクにLLM(Large Language Models)を適用することへの関心が高まっている。
本研究は,実世界のグラフに係わる命令追従型LLMの能力について考察する。
論文 参考訳(メタデータ) (2024-08-10T06:54:35Z) - GraphLLM: Boosting Graph Reasoning Ability of Large Language Model [7.218768686958888]
GraphLLMは、グラフ学習モデルと大規模言語モデルを統合する、先駆的なエンドツーエンドアプローチである。
4つの基本グラフ推論タスクにおける経験的評価により,GraphLLMの有効性が検証された。
その結果、54.44%の精度が向上し、96.45%の文脈が短縮された。
論文 参考訳(メタデータ) (2023-10-09T16:42:00Z) - Integrating Graphs with Large Language Models: Methods and Prospects [68.37584693537555]
大規模言語モデル (LLMs) が最前線として登場し、様々なアプリケーションにおいて非並列の長所を示している。
LLMとグラフ構造化データを組み合わせることは、非常に興味深いトピックです。
本稿では、そのような統合を2つの主要なカテゴリに分岐する。
論文 参考訳(メタデータ) (2023-10-09T07:59:34Z) - Talk like a Graph: Encoding Graphs for Large Language Models [15.652881653332194]
大規模言語モデル(LLM)による消費用テキストとしてグラフ構造化データを符号化する最初の包括的研究について検討する。
グラフ解析におけるLCMの性能は,(1)グラフ符号化法,(2)グラフ処理自体の性質,(3)興味深いことに,考慮されたグラフの構造の3つの基本レベルによって異なることを示す。
論文 参考訳(メタデータ) (2023-10-06T19:55:21Z) - Can Language Models Solve Graph Problems in Natural Language? [51.28850846990929]
大型言語モデル (LLM) は暗黙的なグラフィカル構造を持つ様々なタスクに採用されている。
自然言語をシミュレーションするグラフベース問題解決のベンチマークであるNLGraphを提案する。
論文 参考訳(メタデータ) (2023-05-17T08:29:21Z) - Graph-ToolFormer: To Empower LLMs with Graph Reasoning Ability via
Prompt Augmented by ChatGPT [10.879701971582502]
我々は,複雑なグラフデータに対する推論能力を備えた大規模言語モデル(LLM)の開発を目指している。
最新のChatGPTおよびToolformerモデルに触発された我々は、外部グラフ推論APIツールを使用するために、ChatGPTによって強化されたプロンプトでLLM自体を教えるためのGraph-ToolFormerフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-10T05:25:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。