論文の概要: Can we soft prompt LLMs for graph learning tasks?
- arxiv url: http://arxiv.org/abs/2402.10359v1
- Date: Thu, 15 Feb 2024 23:09:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 18:07:03.025355
- Title: Can we soft prompt LLMs for graph learning tasks?
- Title(参考訳): グラフ学習タスクのためのソフトプロンプトllmは可能か?
- Authors: Zheyuan Liu, Xiaoxin He, Yijun Tian, Nitesh V. Chawla
- Abstract要約: GraphPrompterは、グラフ情報とLLM(Large Language Models)をソフトプロンプトで整合させるように設計されたフレームワークである。
このフレームワークは、グラフ関連タスクの予測子としてLLMの実質的な機能を明らかにしている。
- 参考スコア(独自算出の注目度): 24.346061281595663
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Graph plays an important role in representing complex relationships in
real-world applications such as social networks, biological data and citation
networks. In recent years, Large Language Models (LLMs) have achieved
tremendous success in various domains, which makes applying LLMs to graphs
particularly appealing. However, directly applying LLMs to graph modalities
presents unique challenges due to the discrepancy and mismatch between the
graph and text modalities. Hence, to further investigate LLMs' potential for
comprehending graph information, we introduce GraphPrompter, a novel framework
designed to align graph information with LLMs via soft prompts. Specifically,
GraphPrompter consists of two main components: a graph neural network to encode
complex graph information and an LLM that effectively processes textual
information. Comprehensive experiments on various benchmark datasets under node
classification and link prediction tasks demonstrate the effectiveness of our
proposed method. The GraphPrompter framework unveils the substantial
capabilities of LLMs as predictors in graph-related tasks, enabling researchers
to utilize LLMs across a spectrum of real-world graph scenarios more
effectively.
- Abstract(参考訳): グラフは、ソーシャルネットワーク、生物データ、引用ネットワークといった現実世界のアプリケーションにおける複雑な関係を表現する上で重要な役割を果たす。
近年,Large Language Models (LLM) は様々な領域で大きな成功を収めており,特にグラフに LLM を適用している。
しかし, LLMをグラフモダリティに直接適用することは, グラフとテキストモダリティの相違やミスマッチにより, 独特な課題となる。
そこで我々は,グラフ情報を理解するためのllmsのポテンシャルをさらに調査するために,ソフトプロンプトによってグラフ情報をllmsにアライメントするように設計された新しいフレームワークであるgraphprompterを提案する。
具体的には、GraphPrompterは、複雑なグラフ情報をエンコードするグラフニューラルネットワークと、テキスト情報を効果的に処理するLLMの2つの主要コンポーネントで構成される。
ノード分類およびリンク予測タスクに基づく各種ベンチマークデータセットの総合実験により,提案手法の有効性を実証した。
GraphPrompterフレームワークは、グラフ関連タスクの予測子としてLLMの実質的な能力を明らかにし、研究者が現実のグラフシナリオのスペクトルを越えてLLMをより効果的に利用できるようにする。
関連論文リスト
- How Do Large Language Models Understand Graph Patterns? A Benchmark for Graph Pattern Comprehension [53.6373473053431]
この研究は、グラフパターンタスクにおける大規模言語モデルの能力を評価するためのベンチマークを導入する。
我々は,LLMが用語的記述と位相的記述の両方に基づいて,グラフパターンを理解できるかどうかを評価するベンチマークを開発した。
私たちのベンチマークでは、合成データセットと実際のデータセットの両方と、11のタスクと7のモデルで構成されています。
論文 参考訳(メタデータ) (2024-10-04T04:48:33Z) - Investigating Instruction Tuning Large Language Models on Graphs [37.20541711360419]
グラフ関連のタスクにLLM(Large Language Models)を適用することへの関心が高まっている。
本研究は,実世界のグラフに係わる命令追従型LLMの能力について考察する。
論文 参考訳(メタデータ) (2024-08-10T06:54:35Z) - Parameter-Efficient Tuning Large Language Models for Graph Representation Learning [62.26278815157628]
Graph-awareを導入します。
GPEFT - グラフ表現学習のための新しい手法。
グラフニューラルネットワーク(GNN)を用いて、隣接するノードからグラフプロンプトに構造情報をエンコードする。
我々は8つの異なるテキストリッチグラフで実施した総合的な実験を通じて,リンク予測評価において hit@1 と Mean Reciprocal Rank (MRR) の平均 2% の改善を観察し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2024-04-28T18:36:59Z) - Graph Machine Learning in the Era of Large Language Models (LLMs) [44.25731266093967]
グラフは、ソーシャルネットワーク、知識グラフ、分子発見など、さまざまな領域における複雑な関係を表現する上で重要な役割を果たす。
ディープラーニングの出現に伴い、グラフニューラルネットワーク(GNN)がグラフ機械学習(Graph ML)の基盤として登場した。
近年、LLMは言語タスクにおいて前例のない能力を示し、コンピュータビジョンやレコメンデータシステムなど様々なアプリケーションで広く採用されている。
論文 参考訳(メタデータ) (2024-04-23T11:13:39Z) - A Survey of Large Language Models on Generative Graph Analytics: Query, Learning, and Applications [4.777453721753589]
大規模言語モデル(LLM)は、様々なNLPおよびマルチモードタスクを扱う強力な一般化能力を示した。
グラフ学習モデルと比較して、LLMはグラフタスクの一般化の課題に対処する上で、優れたアドバンテージを持っている。
LLM-based generative graph analysis (LLM-GGA) の重要な問題点を3つのカテゴリで検討した。
論文 参考訳(メタデータ) (2024-04-23T07:39:24Z) - Exploring the Potential of Large Language Models in Graph Generation [51.046188600990014]
グラフ生成は、与えられたプロパティを持つグラフを生成するために、大きな言語モデル(LLM)を必要とする。
本稿では,LLMのグラフ生成能力について,系統的なタスク設計と実験による検討を行う。
評価の結果,LLM,特にGPT-4は,グラフ生成タスクに予備的能力を示すことがわかった。
論文 参考訳(メタデータ) (2024-03-21T12:37:54Z) - Large Language Models on Graphs: A Comprehensive Survey [77.16803297418201]
グラフ上の大規模言語モデルに関連するシナリオとテクニックを体系的にレビューする。
まず,LLMをグラフに適用する可能性シナリオを,純グラフ,テキスト分散グラフ,テキストペアグラフの3つのカテゴリにまとめる。
本稿では,そのような手法の現実的な応用について論じ,オープンソースコードとベンチマークデータセットを要約する。
論文 参考訳(メタデータ) (2023-12-05T14:14:27Z) - Integrating Graphs with Large Language Models: Methods and Prospects [68.37584693537555]
大規模言語モデル (LLMs) が最前線として登場し、様々なアプリケーションにおいて非並列の長所を示している。
LLMとグラフ構造化データを組み合わせることは、非常に興味深いトピックです。
本稿では、そのような統合を2つの主要なカテゴリに分岐する。
論文 参考訳(メタデータ) (2023-10-09T07:59:34Z) - Beyond Text: A Deep Dive into Large Language Models' Ability on
Understanding Graph Data [13.524529952170672]
大規模言語モデル(LLM)は多くの自然言語処理タスクにおいて顕著な性能を達成している。
LLMがグラフデータを効果的に処理し、トポロジ構造を利用して性能を向上させることができるかどうかを評価することを目的とする。
LLMの性能を特殊グラフモデルと比較することにより、グラフ解析にLLMを使用する際の長所と短所について考察する。
論文 参考訳(メタデータ) (2023-10-07T23:25:22Z) - Exploring the Potential of Large Language Models (LLMs) in Learning on
Graphs [59.74814230246034]
大規模言語モデル(LLM)は、広範な共通知識と強力な意味理解能力を持つことが証明されている。
LLMs-as-EnhancersとLLMs-as-Predictorsの2つのパイプラインについて検討する。
論文 参考訳(メタデータ) (2023-07-07T05:31:31Z) - Graph-ToolFormer: To Empower LLMs with Graph Reasoning Ability via
Prompt Augmented by ChatGPT [10.879701971582502]
我々は,複雑なグラフデータに対する推論能力を備えた大規模言語モデル(LLM)の開発を目指している。
最新のChatGPTおよびToolformerモデルに触発された我々は、外部グラフ推論APIツールを使用するために、ChatGPTによって強化されたプロンプトでLLM自体を教えるためのGraph-ToolFormerフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-10T05:25:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。