論文の概要: Exploring the Potential of Large Language Models in Graph Generation
- arxiv url: http://arxiv.org/abs/2403.14358v1
- Date: Thu, 21 Mar 2024 12:37:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-22 14:18:45.518539
- Title: Exploring the Potential of Large Language Models in Graph Generation
- Title(参考訳): グラフ生成における大規模言語モデルの可能性を探る
- Authors: Yang Yao, Xin Wang, Zeyang Zhang, Yijian Qin, Ziwei Zhang, Xu Chu, Yuekui Yang, Wenwu Zhu, Hong Mei,
- Abstract要約: グラフ生成は、与えられたプロパティを持つグラフを生成するために、大きな言語モデル(LLM)を必要とする。
本稿では,LLMのグラフ生成能力について,系統的なタスク設計と実験による検討を行う。
評価の結果,LLM,特にGPT-4は,グラフ生成タスクに予備的能力を示すことがわかった。
- 参考スコア(独自算出の注目度): 51.046188600990014
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have achieved great success in many fields, and recent works have studied exploring LLMs for graph discriminative tasks such as node classification. However, the abilities of LLMs for graph generation remain unexplored in the literature. Graph generation requires the LLM to generate graphs with given properties, which has valuable real-world applications such as drug discovery, while tends to be more challenging. In this paper, we propose LLM4GraphGen to explore the ability of LLMs for graph generation with systematical task designs and extensive experiments. Specifically, we propose several tasks tailored with comprehensive experiments to address key questions regarding LLMs' understanding of different graph structure rules, their ability to capture structural type distributions, and their utilization of domain knowledge for property-based graph generation. Our evaluations demonstrate that LLMs, particularly GPT-4, exhibit preliminary abilities in graph generation tasks, including rule-based and distribution-based generation. We also observe that popular prompting methods, such as few-shot and chain-of-thought prompting, do not consistently enhance performance. Besides, LLMs show potential in generating molecules with specific properties. These findings may serve as foundations for designing good LLMs based models for graph generation and provide valuable insights and further research.
- Abstract(参考訳): 大規模言語モデル(LLM)は多くの分野で大きな成功を収めており、近年ではノード分類などのグラフ識別タスクのためのLLMの研究が進められている。
しかし、グラフ生成におけるLLMの能力は、文献では明らかにされていない。
グラフ生成には LLM が与えられた特性を持つグラフを生成する必要がある。
本稿では,LLM4GraphGenを提案する。
具体的には、異なるグラフ構造規則に対するLLMの理解、構造型分布の捕捉能力、およびプロパティベースのグラフ生成におけるドメイン知識の利用に関する重要な問題に対処するための総合的な実験に特化して、いくつかのタスクを提案する。
評価の結果,LSM,特にGPT-4は,ルールベースおよび分布ベース生成を含むグラフ生成タスクに予備的能力を示すことがわかった。
また,ほとんどショットやチェーン・オブ・シークレットなどの一般的なプロンプト手法は,性能を継続的に向上させるものではないことも観察した。
加えて、LSMは特定の性質を持つ分子を生成する可能性を示す。
これらの発見は、グラフ生成のための優れたLLMモデルの設計の基礎となり、貴重な洞察とさらなる研究を提供する。
関連論文リスト
- How Do Large Language Models Understand Graph Patterns? A Benchmark for Graph Pattern Comprehension [53.6373473053431]
この研究は、グラフパターンタスクにおける大規模言語モデルの能力を評価するためのベンチマークを導入する。
我々は,LLMが用語的記述と位相的記述の両方に基づいて,グラフパターンを理解できるかどうかを評価するベンチマークを開発した。
私たちのベンチマークでは、合成データセットと実際のデータセットの両方と、11のタスクと7のモデルで構成されています。
論文 参考訳(メタデータ) (2024-10-04T04:48:33Z) - Investigating Instruction Tuning Large Language Models on Graphs [37.20541711360419]
グラフ関連のタスクにLLM(Large Language Models)を適用することへの関心が高まっている。
本研究は,実世界のグラフに係わる命令追従型LLMの能力について考察する。
論文 参考訳(メタデータ) (2024-08-10T06:54:35Z) - All Against Some: Efficient Integration of Large Language Models for Message Passing in Graph Neural Networks [51.19110891434727]
事前訓練された知識と強力なセマンティック理解能力を持つ大規模言語モデル(LLM)は、最近、視覚とテキストデータを使用してアプリケーションに恩恵をもたらす顕著な能力を示している。
E-LLaGNNは、グラフから限られたノード数を増やして、グラフ学習のメッセージパッシング手順を強化するオンデマンドLLMサービスを備えたフレームワークである。
論文 参考訳(メタデータ) (2024-07-20T22:09:42Z) - Graph Machine Learning in the Era of Large Language Models (LLMs) [44.25731266093967]
グラフは、ソーシャルネットワーク、知識グラフ、分子発見など、さまざまな領域における複雑な関係を表現する上で重要な役割を果たす。
ディープラーニングの出現に伴い、グラフニューラルネットワーク(GNN)がグラフ機械学習(Graph ML)の基盤として登場した。
近年、LLMは言語タスクにおいて前例のない能力を示し、コンピュータビジョンやレコメンデータシステムなど様々なアプリケーションで広く採用されている。
論文 参考訳(メタデータ) (2024-04-23T11:13:39Z) - A Survey of Large Language Models on Generative Graph Analytics: Query, Learning, and Applications [4.777453721753589]
大規模言語モデル(LLM)は、様々なNLPおよびマルチモードタスクを扱う強力な一般化能力を示した。
グラフ学習モデルと比較して、LLMはグラフタスクの一般化の課題に対処する上で、優れたアドバンテージを持っている。
LLM-based generative graph analysis (LLM-GGA) の重要な問題点を3つのカテゴリで検討した。
論文 参考訳(メタデータ) (2024-04-23T07:39:24Z) - Can we Soft Prompt LLMs for Graph Learning Tasks? [22.286189757942054]
GraphPrompterは、グラフ情報とLLM(Large Language Models)をソフトプロンプトで整合させるように設計されたフレームワークである。
このフレームワークは、グラフ関連タスクの予測子としてLLMの実質的な機能を明らかにしている。
論文 参考訳(メタデータ) (2024-02-15T23:09:42Z) - LLM4DyG: Can Large Language Models Solve Spatial-Temporal Problems on Dynamic Graphs? [56.85995048874959]
本稿では,大規模言語モデルの動的グラフ上での時空間理解能力を評価することを提案する。
我々は、異なるデータ生成装置、データ統計、プロンプト技術、LLMがモデル性能に与える影響を分析する実験を行う。
最後に, LLM の時空間理解能力を高めるために, 動的グラフ上の LLM に対する Disentangled Spatial-Temporal Thoughts (DST2) を提案する。
論文 参考訳(メタデータ) (2023-10-26T02:37:43Z) - Integrating Graphs with Large Language Models: Methods and Prospects [68.37584693537555]
大規模言語モデル (LLMs) が最前線として登場し、様々なアプリケーションにおいて非並列の長所を示している。
LLMとグラフ構造化データを組み合わせることは、非常に興味深いトピックです。
本稿では、そのような統合を2つの主要なカテゴリに分岐する。
論文 参考訳(メタデータ) (2023-10-09T07:59:34Z) - Beyond Text: A Deep Dive into Large Language Models' Ability on
Understanding Graph Data [13.524529952170672]
大規模言語モデル(LLM)は多くの自然言語処理タスクにおいて顕著な性能を達成している。
LLMがグラフデータを効果的に処理し、トポロジ構造を利用して性能を向上させることができるかどうかを評価することを目的とする。
LLMの性能を特殊グラフモデルと比較することにより、グラフ解析にLLMを使用する際の長所と短所について考察する。
論文 参考訳(メタデータ) (2023-10-07T23:25:22Z) - Exploring the Potential of Large Language Models (LLMs) in Learning on
Graphs [59.74814230246034]
大規模言語モデル(LLM)は、広範な共通知識と強力な意味理解能力を持つことが証明されている。
LLMs-as-EnhancersとLLMs-as-Predictorsの2つのパイプラインについて検討する。
論文 参考訳(メタデータ) (2023-07-07T05:31:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。