論文の概要: Large Language Models Meet Graph Neural Networks: A Perspective of Graph Mining
- arxiv url: http://arxiv.org/abs/2412.19211v1
- Date: Thu, 26 Dec 2024 13:21:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:25:28.814105
- Title: Large Language Models Meet Graph Neural Networks: A Perspective of Graph Mining
- Title(参考訳): グラフニューラルネットワークを用いた大規模言語モデル - グラフマイニングの展望
- Authors: Yuxin You, Zhen Liu, Xiangchao Wen, Yongtao Zhang, Wei Ai,
- Abstract要約: 本稿では,この学際分野の研究のための新しい分類法を提案する。GNN-driving-LLM,GNN-driving-GNN,GNN-LLM-drivingの3つの主要なカテゴリを含む。
大規模言語モデルはグラフ構造化データを扱う大きな可能性を示しているが、高い計算要求と複雑さは依然として課題である。
- 参考スコア(独自算出の注目度): 2.8843412675137343
- License:
- Abstract: Graph mining is an important area in data mining and machine learning that involves extracting valuable information from graph-structured data. In recent years, significant progress has been made in this field through the development of graph neural networks (GNNs). However, GNNs are still deficient in generalizing to diverse graph data. Aiming to this issue, Large Language Models (LLMs) could provide new solutions for graph mining tasks with their superior semantic understanding. In this review, we systematically review the combination and application techniques of LLMs and GNNs and present a novel taxonomy for research in this interdisciplinary field, which involves three main categories: GNN-driving-LLM, LLM-driving-GNN, and GNN-LLM-co-driving. Within this framework, we reveal the capabilities of LLMs in enhancing graph feature extraction as well as improving the effectiveness of downstream tasks such as node classification, link prediction, and community detection. Although LLMs have demonstrated their great potential in handling graph-structured data, their high computational requirements and complexity remain challenges. Future research needs to continue to explore how to efficiently fuse LLMs and GNNs to achieve more powerful graph learning and reasoning capabilities and provide new impetus for the development of graph mining techniques.
- Abstract(参考訳): グラフマイニングはデータマイニングと機械学習において重要な領域であり、グラフ構造化データから貴重な情報を抽出する。
近年,グラフニューラルネットワーク(GNN)の開発を通じて,この分野において大きな進歩を遂げている。
しかし、GNNは多様なグラフデータへの一般化に依然として不足している。
この問題を解決するため、LLM(Large Language Models)は、グラフマイニングタスクのための新しいソリューションを、より優れたセマンティックな理解で提供することができる。
本稿では,LLMとGNNの組み合わせと応用技術について体系的に検討し,GNN-driving-LLM,LLM-driving-GNN,GNN-LLM-drivingの3つの主要なカテゴリを含む学際分野の研究のための新しい分類法を提案する。
本フレームワークでは,グラフ特徴抽出の強化と,ノード分類やリンク予測,コミュニティ検出などの下流タスクの有効性の向上を図る。
LLMはグラフ構造化データを扱う大きな可能性を証明しているが、高い計算要求と複雑さは依然として課題である。
今後の研究は、LLMとGNNを効率的に融合して、より強力なグラフ学習と推論能力を実現し、グラフマイニング技術開発のための新たな推進力を提供する方法を探求し続けていく必要がある。
関連論文リスト
- Revisiting Graph Neural Networks on Graph-level Tasks: Comprehensive Experiments, Analysis, and Improvements [54.006506479865344]
グラフレベルグラフニューラルネットワーク(GNN)のための統一評価フレームワークを提案する。
このフレームワークは、さまざまなデータセットにわたるGNNを評価するための標準化された設定を提供する。
また,表現性の向上と一般化機能を備えた新しいGNNモデルを提案する。
論文 参考訳(メタデータ) (2025-01-01T08:48:53Z) - Graph Learning in the Era of LLMs: A Survey from the Perspective of Data, Models, and Tasks [25.720233631885726]
グラフニューラルネットワーク(GNN)とLarge Language Models(LLM)の統合は、有望な技術パラダイムとして現れている。
データ品質を根本的に向上させるために、リッチなセマンティックコンテキストを持つグラフ記述テキストを活用します。
この研究は、グラフ学習方法論の進歩を目指す研究者や実践者にとって、基礎的な参考となる。
論文 参考訳(メタデータ) (2024-12-17T01:41:17Z) - Learning From Graph-Structured Data: Addressing Design Issues and Exploring Practical Applications in Graph Representation Learning [2.492884361833709]
グラフ表現学習とグラフニューラルネットワーク(GNN)の最近の進歩を概観する。
グラフ構造化データを扱うように設計されたGNNは、複雑な関係情報から洞察と予測を引き出すのに長けている。
我々の研究は、GNNの能力を掘り下げ、その基礎設計と現実の課題に対処するための応用について調べている。
論文 参考訳(メタデータ) (2024-11-09T19:10:33Z) - All Against Some: Efficient Integration of Large Language Models for Message Passing in Graph Neural Networks [51.19110891434727]
事前訓練された知識と強力なセマンティック理解能力を持つ大規模言語モデル(LLM)は、最近、視覚とテキストデータを使用してアプリケーションに恩恵をもたらす顕著な能力を示している。
E-LLaGNNは、グラフから限られたノード数を増やして、グラフ学習のメッセージパッシング手順を強化するオンデマンドLLMサービスを備えたフレームワークである。
論文 参考訳(メタデータ) (2024-07-20T22:09:42Z) - Graph Structure Prompt Learning: A Novel Methodology to Improve Performance of Graph Neural Networks [13.655670509818144]
グラフネットワーク(GNN)のトレーニングを強化するための新しいグラフ構造Prompt Learning法(GPL)を提案する。
GPLはタスク非依存のグラフ構造損失を利用して、GNNが下流タスクを同時に解決しながら固有のグラフ特性を学習することを奨励している。
11の実世界のデータセットの実験では、ニューラルネットワークによってトレーニングされた後、GNNはノード分類、グラフ分類、エッジタスクにおいて、元のパフォーマンスを大幅に上回った。
論文 参考訳(メタデータ) (2024-07-16T03:59:18Z) - Exploring the Potential of Large Language Models (LLMs) in Learning on
Graphs [59.74814230246034]
大規模言語モデル(LLM)は、広範な共通知識と強力な意味理解能力を持つことが証明されている。
LLMs-as-EnhancersとLLMs-as-Predictorsの2つのパイプラインについて検討する。
論文 参考訳(メタデータ) (2023-07-07T05:31:31Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - CogDL: A Comprehensive Library for Graph Deep Learning [55.694091294633054]
研究者や実践者が実験を行い、メソッドを比較し、簡単かつ効率的にアプリケーションを構築することができるグラフ深層学習ライブラリであるCogDLを紹介します。
CogDLでは,様々なグラフタスクに対するGNNモデルのトレーニングと評価のための統一設計を提案し,既存のグラフ学習ライブラリに固有のものである。
我々はCogDLのための効率的なスパース演算子を開発し、効率性のための最も競争力のあるグラフライブラリとなる。
論文 参考訳(メタデータ) (2021-03-01T12:35:16Z) - Analyzing the Performance of Graph Neural Networks with Pipe Parallelism [2.269587850533721]
ノードやエッジの分類やリンクの予測といったタスクで大きな成功を収めたグラフニューラルネットワーク(GNN)に注目した。
グラフ技術の進歩には,大規模ネットワーク処理のための新たなアプローチが必要である。
私たちは、ディープラーニングコミュニティで成功したと知られている既存のツールとフレームワークを使用して、GNNを並列化する方法を研究します。
論文 参考訳(メタデータ) (2020-12-20T04:20:38Z) - Computing Graph Neural Networks: A Survey from Algorithms to
Accelerators [2.491032752533246]
グラフニューラルネットワーク(GNN)は、グラフ構造化データからモデル化および学習する能力のため、近年、機械学習の現場で爆発的に普及している。
本稿では,GNNの分野をコンピュータの観点から概観する。
現在のソフトウェアとハードウェアアクセラレーションスキームの詳細な分析を行う。
論文 参考訳(メタデータ) (2020-09-30T22:29:27Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。