論文の概要: GraphLLM: Boosting Graph Reasoning Ability of Large Language Model
- arxiv url: http://arxiv.org/abs/2310.05845v1
- Date: Mon, 9 Oct 2023 16:42:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-11 00:27:39.345898
- Title: GraphLLM: Boosting Graph Reasoning Ability of Large Language Model
- Title(参考訳): GraphLLM: 大規模言語モデルのグラフ推論能力向上
- Authors: Ziwei Chai, Tianjie Zhang, Liang Wu, Kaiqiao Han, Xiaohai Hu, Xuanwen
Huang, Yang Yang
- Abstract要約: GraphLLMは、グラフ学習モデルと大規模言語モデルを統合する、先駆的なエンドツーエンドアプローチである。
4つの基本グラフ推論タスクにおける経験的評価により,GraphLLMの有効性が検証された。
その結果、54.44%の精度が向上し、96.45%の文脈が短縮された。
- 参考スコア(独自算出の注目度): 7.218768686958888
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The advancement of Large Language Models (LLMs) has remarkably pushed the
boundaries towards artificial general intelligence (AGI), with their
exceptional ability on understanding diverse types of information, including
but not limited to images and audio. Despite this progress, a critical gap
remains in empowering LLMs to proficiently understand and reason on graph data.
Recent studies underscore LLMs' underwhelming performance on fundamental graph
reasoning tasks. In this paper, we endeavor to unearth the obstacles that
impede LLMs in graph reasoning, pinpointing the common practice of converting
graphs into natural language descriptions (Graph2Text) as a fundamental
bottleneck. To overcome this impediment, we introduce GraphLLM, a pioneering
end-to-end approach that synergistically integrates graph learning models with
LLMs. This synergy equips LLMs with the ability to proficiently interpret and
reason on graph data, harnessing the superior expressive power of graph
learning models. Our empirical evaluations across four fundamental graph
reasoning tasks validate the effectiveness of GraphLLM. The results exhibit a
substantial average accuracy enhancement of 54.44%, alongside a noteworthy
context reduction of 96.45% across various graph reasoning tasks.
- Abstract(参考訳): 大規模言語モデル(llm)の進歩は、画像や音声だけでなく、様々な種類の情報を理解する能力を持つ人工知能(agi)の限界を著しく押し上げてきた。
この進歩にもかかわらず、LLMにグラフデータについて十分に理解し、理性を与えるための重要なギャップは依然として残っている。
最近の研究は、基本的なグラフ推論タスクにおけるllmsの圧倒的性能を強調する。
本稿では,グラフ推論において LLM を阻害する障害を解明し,グラフを自然言語記述(Graph2Text)に変換する一般的な手法を基本的なボトルネックとして挙げる。
この障害を克服するために、グラフ学習モデルをLLMと相乗的に統合する先駆的なエンドツーエンドアプローチであるGraphLLMを導入する。
この相乗効果は、グラフ学習モデルの優れた表現力を活用することによって、グラフデータを巧みに解釈し推論する能力を持つ。
4つの基本グラフ推論タスクにおける経験的評価は、GraphLLMの有効性を検証する。
結果は54.44%の精度向上と、様々なグラフ推論タスクにおける96.45%の文脈縮小を示す。
関連論文リスト
- GraphInstruct: Empowering Large Language Models with Graph Understanding
and Reasoning Capability [39.357609062052205]
大規模言語モデル(LLM)のグラフ理解能力の評価と向上を行う。
本稿では,21の古典的グラフ推論タスクを含むGraphInstructというベンチマークを提案する。
我々は,グラフ理解能力の顕著な向上を示す効率的な命令チューニングにより,GraphLMを構築する。
論文 参考訳(メタデータ) (2024-03-07T13:36:08Z) - LLaGA: Large Language and Graph Assistant [79.09010152231164]
大規模言語とグラフアシスタント(LLaGA)は、グラフ構造化データの複雑さを扱う革新的なモデルである。
LLaGAは汎用性、一般化性、解釈性に優れており、異なるデータセットやタスク間で一貫して動作する。
実験の結果,LLaGAは4つのデータセットと3つのタスクに1つの単一モデルを用いて優れた性能を提供することがわかった。
論文 参考訳(メタデータ) (2024-02-13T02:03:26Z) - Rendering Graphs for Graph Reasoning in Multimodal Large Language Models [25.787348071391595]
本稿では,視覚情報をグラフ推論タスクに組み込む第一歩として,新しいベンチマークGITQAを提案する。
我々は、最先端のマルチモーダルLLMを用いて、GITQAベンチマークで広範な実験を行う。
その結果,テキスト情報と視覚情報の組み合わせは,一つのモダリティを単独で使用するよりも優れていた。
論文 参考訳(メタデータ) (2024-02-03T12:19:47Z) - When Graph Data Meets Multimodal: A New Paradigm for Graph Understanding
and Reasoning [54.84870836443311]
本稿では,画像エンコーディングとマルチモーダル技術を統合することで,グラフデータの理解と推論を行う新しいパラダイムを提案する。
このアプローチは, GPT-4Vの高度な機能を利用して, 命令応答形式によるグラフデータの理解を可能にする。
研究は、このパラダイムを様々なグラフタイプで評価し、特に中国のOCRパフォーマンスと複雑な推論タスクにおいて、モデルの強みと弱みを強調した。
論文 参考訳(メタデータ) (2023-12-16T08:14:11Z) - Large Language Models on Graphs: A Comprehensive Survey [81.7684686396014]
グラフ上の大規模言語モデルに関連するシナリオとテクニックを体系的にレビューする。
まず,LLMをグラフに適用する可能性シナリオを,純グラフ,テキスト分散グラフ,テキストペアグラフの3つのカテゴリにまとめる。
本稿では,そのような手法の現実的な応用について論じ,オープンソースコードとベンチマークデータセットを要約する。
論文 参考訳(メタデータ) (2023-12-05T14:14:27Z) - Integrating Graphs with Large Language Models: Methods and Prospects [68.37584693537555]
大規模言語モデル (LLMs) が最前線として登場し、様々なアプリケーションにおいて非並列の長所を示している。
LLMとグラフ構造化データを組み合わせることは、非常に興味深いトピックです。
本稿では、そのような統合を2つの主要なカテゴリに分岐する。
論文 参考訳(メタデータ) (2023-10-09T07:59:34Z) - Talk like a Graph: Encoding Graphs for Large Language Models [15.652881653332194]
大規模言語モデル(LLM)による消費用テキストとしてグラフ構造化データを符号化する最初の包括的研究について検討する。
グラフ解析におけるLCMの性能は,(1)グラフ符号化法,(2)グラフ処理自体の性質,(3)興味深いことに,考慮されたグラフの構造の3つの基本レベルによって異なることを示す。
論文 参考訳(メタデータ) (2023-10-06T19:55:21Z) - GPT4Graph: Can Large Language Models Understand Graph Structured Data ?
An Empirical Evaluation and Benchmarking [17.7473474499538]
ChatGPTのような大規模言語モデルは、人工知能にとって欠かせないものとなっている。
本研究では,グラフデータの解釈において,LLMの精度を評価するための調査を行う。
この知見は,言語モデルとグラフ理解のギャップを埋めるための貴重な洞察に寄与する。
論文 参考訳(メタデータ) (2023-05-24T11:53:19Z) - Can Language Models Solve Graph Problems in Natural Language? [51.28850846990929]
大型言語モデル (LLM) は暗黙的なグラフィカル構造を持つ様々なタスクに採用されている。
自然言語をシミュレーションするグラフベース問題解決のベンチマークであるNLGraphを提案する。
論文 参考訳(メタデータ) (2023-05-17T08:29:21Z) - Graph-ToolFormer: To Empower LLMs with Graph Reasoning Ability via
Prompt Augmented by ChatGPT [10.879701971582502]
我々は,複雑なグラフデータに対する推論能力を備えた大規模言語モデル(LLM)の開発を目指している。
最新のChatGPTおよびToolformerモデルに触発された我々は、外部グラフ推論APIツールを使用するために、ChatGPTによって強化されたプロンプトでLLM自体を教えるためのGraph-ToolFormerフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-10T05:25:54Z) - Explanation Graph Generation via Pre-trained Language Models: An
Empirical Study with Contrastive Learning [84.35102534158621]
エンドツーエンドで説明グラフを生成する事前学習言語モデルについて検討する。
本稿では,ノードとエッジの編集操作によるグラフ摂動の簡易かつ効果的な方法を提案する。
提案手法は,説明グラフの構造的精度と意味的精度を両立させる。
論文 参考訳(メタデータ) (2022-04-11T00:58:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。