論文の概要: GraphLLM: Boosting Graph Reasoning Ability of Large Language Model
- arxiv url: http://arxiv.org/abs/2310.05845v1
- Date: Mon, 9 Oct 2023 16:42:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-11 00:27:39.345898
- Title: GraphLLM: Boosting Graph Reasoning Ability of Large Language Model
- Title(参考訳): GraphLLM: 大規模言語モデルのグラフ推論能力向上
- Authors: Ziwei Chai, Tianjie Zhang, Liang Wu, Kaiqiao Han, Xiaohai Hu, Xuanwen
Huang, Yang Yang
- Abstract要約: GraphLLMは、グラフ学習モデルと大規模言語モデルを統合する、先駆的なエンドツーエンドアプローチである。
4つの基本グラフ推論タスクにおける経験的評価により,GraphLLMの有効性が検証された。
その結果、54.44%の精度が向上し、96.45%の文脈が短縮された。
- 参考スコア(独自算出の注目度): 7.218768686958888
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The advancement of Large Language Models (LLMs) has remarkably pushed the
boundaries towards artificial general intelligence (AGI), with their
exceptional ability on understanding diverse types of information, including
but not limited to images and audio. Despite this progress, a critical gap
remains in empowering LLMs to proficiently understand and reason on graph data.
Recent studies underscore LLMs' underwhelming performance on fundamental graph
reasoning tasks. In this paper, we endeavor to unearth the obstacles that
impede LLMs in graph reasoning, pinpointing the common practice of converting
graphs into natural language descriptions (Graph2Text) as a fundamental
bottleneck. To overcome this impediment, we introduce GraphLLM, a pioneering
end-to-end approach that synergistically integrates graph learning models with
LLMs. This synergy equips LLMs with the ability to proficiently interpret and
reason on graph data, harnessing the superior expressive power of graph
learning models. Our empirical evaluations across four fundamental graph
reasoning tasks validate the effectiveness of GraphLLM. The results exhibit a
substantial average accuracy enhancement of 54.44%, alongside a noteworthy
context reduction of 96.45% across various graph reasoning tasks.
- Abstract(参考訳): 大規模言語モデル(llm)の進歩は、画像や音声だけでなく、様々な種類の情報を理解する能力を持つ人工知能(agi)の限界を著しく押し上げてきた。
この進歩にもかかわらず、LLMにグラフデータについて十分に理解し、理性を与えるための重要なギャップは依然として残っている。
最近の研究は、基本的なグラフ推論タスクにおけるllmsの圧倒的性能を強調する。
本稿では,グラフ推論において LLM を阻害する障害を解明し,グラフを自然言語記述(Graph2Text)に変換する一般的な手法を基本的なボトルネックとして挙げる。
この障害を克服するために、グラフ学習モデルをLLMと相乗的に統合する先駆的なエンドツーエンドアプローチであるGraphLLMを導入する。
この相乗効果は、グラフ学習モデルの優れた表現力を活用することによって、グラフデータを巧みに解釈し推論する能力を持つ。
4つの基本グラフ推論タスクにおける経験的評価は、GraphLLMの有効性を検証する。
結果は54.44%の精度向上と、様々なグラフ推論タスクにおける96.45%の文脈縮小を示す。
関連論文リスト
- A Hierarchical Language Model For Interpretable Graph Reasoning [47.460255447561906]
ノード中心の局所情報と相互作用中心のグローバル構造を捉えるために2ブロックアーキテクチャを用いる階層型グラフ言語モデル(HLM-G)を導入する。
提案手法は,大規模グラフ処理における計算コストを削減しつつ,高い効率性,効率性,ロバスト性で様々なグラフクエリに対処することを可能にする。
多様なグラフ推論およびノード,リンク,グラフレベルの実世界のタスクに対する総合的な評価は,本手法の優位性を強調している。
論文 参考訳(メタデータ) (2024-10-29T00:28:02Z) - How Do Large Language Models Understand Graph Patterns? A Benchmark for Graph Pattern Comprehension [53.6373473053431]
この研究は、グラフパターンタスクにおける大規模言語モデルの能力を評価するためのベンチマークを導入する。
我々は,LLMが用語的記述と位相的記述の両方に基づいて,グラフパターンを理解できるかどうかを評価するベンチマークを開発した。
私たちのベンチマークでは、合成データセットと実際のデータセットの両方と、11のタスクと7のモデルで構成されています。
論文 参考訳(メタデータ) (2024-10-04T04:48:33Z) - Can Large Language Models Analyze Graphs like Professionals? A Benchmark, Datasets and Models [90.98855064914379]
グラフを処理するために,大規模言語モデル(LLM)のベンチマークであるProGraphを導入する。
その結果,現在のLCMの性能は不満足であり,最高のモデルでは36%の精度しか達成できないことがわかった。
本研究では,6つの広く使用されているグラフライブラリに基づいて,クローリングされたドキュメントと自動生成コードを含むLLM4Graphデータセットを提案する。
論文 参考訳(メタデータ) (2024-09-29T11:38:45Z) - Revisiting the Graph Reasoning Ability of Large Language Models: Case Studies in Translation, Connectivity and Shortest Path [53.71787069694794]
大規模言語モデル(LLM)のグラフ推論能力に着目する。
グラフ記述変換,グラフ接続,最短パス問題という3つの基本グラフタスクにおけるLLMの能力を再考する。
この結果から,LLMはテキスト記述によるグラフ構造理解に失敗し,これらの基本課題に対して様々な性能を示すことが可能であることが示唆された。
論文 参考訳(メタデータ) (2024-08-18T16:26:39Z) - Parameter-Efficient Tuning Large Language Models for Graph Representation Learning [62.26278815157628]
Graph-awareを導入します。
GPEFT - グラフ表現学習のための新しい手法。
グラフニューラルネットワーク(GNN)を用いて、隣接するノードからグラフプロンプトに構造情報をエンコードする。
我々は8つの異なるテキストリッチグラフで実施した総合的な実験を通じて,リンク予測評価において hit@1 と Mean Reciprocal Rank (MRR) の平均 2% の改善を観察し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2024-04-28T18:36:59Z) - Can Graph Descriptive Order Affect Solving Graph Problems with LLMs? [38.1577036285387]
大規模言語モデル(LLM)は、数学的推論や論理的推論を含む推論タスクにおいて大きな成功を収めた。
従来の研究は様々な手法を用いてLSMのグラフ推論能力について研究してきた。
重要な要素は、主に見過ごされ、グラフ記述がモデルに提示される即時順序である。
論文 参考訳(メタデータ) (2024-02-11T09:46:24Z) - Talk like a Graph: Encoding Graphs for Large Language Models [15.652881653332194]
大規模言語モデル(LLM)による消費用テキストとしてグラフ構造化データを符号化する最初の包括的研究について検討する。
グラフ解析におけるLCMの性能は,(1)グラフ符号化法,(2)グラフ処理自体の性質,(3)興味深いことに,考慮されたグラフの構造の3つの基本レベルによって異なることを示す。
論文 参考訳(メタデータ) (2023-10-06T19:55:21Z) - Can Language Models Solve Graph Problems in Natural Language? [51.28850846990929]
大型言語モデル (LLM) は暗黙的なグラフィカル構造を持つ様々なタスクに採用されている。
自然言語をシミュレーションするグラフベース問題解決のベンチマークであるNLGraphを提案する。
論文 参考訳(メタデータ) (2023-05-17T08:29:21Z) - Graph-ToolFormer: To Empower LLMs with Graph Reasoning Ability via
Prompt Augmented by ChatGPT [10.879701971582502]
我々は,複雑なグラフデータに対する推論能力を備えた大規模言語モデル(LLM)の開発を目指している。
最新のChatGPTおよびToolformerモデルに触発された我々は、外部グラフ推論APIツールを使用するために、ChatGPTによって強化されたプロンプトでLLM自体を教えるためのGraph-ToolFormerフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-10T05:25:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。