論文の概要: Bootstrapping Heterogeneous Graph Representation Learning via Large Language Models: A Generalized Approach
- arxiv url: http://arxiv.org/abs/2412.08038v1
- Date: Wed, 11 Dec 2024 02:37:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-12 14:03:25.535141
- Title: Bootstrapping Heterogeneous Graph Representation Learning via Large Language Models: A Generalized Approach
- Title(参考訳): 大規模言語モデルによるブートストラップ不均一グラフ表現学習 : 一般化されたアプローチ
- Authors: Hang Gao, Chenhao Zhang, Fengge Wu, Junsuo Zhao, Changwen Zheng, Huaping Liu,
- Abstract要約: グラフ表現学習法は,グラフ構造内の複雑な関係や特徴を捉えることで,複雑な非ユークリッドデータを扱うのに極めて効果的である。
既存のヘテロジニアスグラフニューラルネットワーク(HGNN)は有望な結果を示しているが、ノードタイプとエッジタイプの事前知識と統一ノード特徴形式が必要である。
大規模言語モデル(LLM)を用いたグラフ表現学習の最近の進歩は、新しいソリューションを提供する。
- 参考スコア(独自算出の注目度): 19.83520243242148
- License:
- Abstract: Graph representation learning methods are highly effective in handling complex non-Euclidean data by capturing intricate relationships and features within graph structures. However, traditional methods face challenges when dealing with heterogeneous graphs that contain various types of nodes and edges due to the diverse sources and complex nature of the data. Existing Heterogeneous Graph Neural Networks (HGNNs) have shown promising results but require prior knowledge of node and edge types and unified node feature formats, which limits their applicability. Recent advancements in graph representation learning using Large Language Models (LLMs) offer new solutions by integrating LLMs' data processing capabilities, enabling the alignment of various graph representations. Nevertheless, these methods often overlook heterogeneous graph data and require extensive preprocessing. To address these limitations, we propose a novel method that leverages the strengths of both LLM and GNN, allowing for the processing of graph data with any format and type of nodes and edges without the need for type information or special preprocessing. Our method employs LLM to automatically summarize and classify different data formats and types, aligns node features, and uses a specialized GNN for targeted learning, thus obtaining effective graph representations for downstream tasks. Theoretical analysis and experimental validation have demonstrated the effectiveness of our method.
- Abstract(参考訳): グラフ表現学習法は,グラフ構造内の複雑な関係や特徴を捉えることで,複雑な非ユークリッドデータを扱うのに極めて効果的である。
しかし、従来の手法では、様々な種類のノードやエッジを含む異種グラフを扱う場合、データの多様なソースと複雑な性質のため、課題に直面している。
既存のHGNN(Heterogeneous Graph Neural Networks)は、有望な結果を示しているが、ノードタイプとエッジタイプの事前知識と、それらの適用性を制限した統一ノード機能フォーマットが必要である。
大規模言語モデル(LLM)を用いたグラフ表現学習の最近の進歩は、LLMのデータ処理機能を統合することで、様々なグラフ表現のアライメントを可能にする新しいソリューションを提供する。
しかしながら、これらの手法は不均一なグラフデータを見落とし、広範囲の事前処理を必要とすることが多い。
これらの制約に対処するために, LLM と GNN の長所を利用する新しい手法を提案し, タイプ情報や特別な前処理を必要とせず, 任意のフォーマット, ノード, エッジのグラフデータの処理を可能にする。
提案手法はLLMを用いて,異なるデータ形式や型を自動的に要約・分類し,ノードの特徴を整列させ,目標学習のための特殊なGNNを用いて,下流タスクに有効なグラフ表現を得る。
理論的解析と実験的検証により,本手法の有効性が実証された。
関連論文リスト
- Let's Ask GNN: Empowering Large Language Model for Graph In-Context Learning [28.660326096652437]
本稿では,逐次テキスト処理とグラフ構造化データのギャップを埋める新しいアプローチであるAskGNNを紹介する。
AskGNNはグラフニューラルネットワーク(GNN)を利用した構造強化レトリバーを使用して、グラフをまたいだラベル付きノードを選択する。
3つのタスクと7つのLLMにわたる実験は、グラフタスクのパフォーマンスにおいてAskGNNが優れていることを示す。
論文 参考訳(メタデータ) (2024-10-09T17:19:12Z) - Verbalized Graph Representation Learning: A Fully Interpretable Graph Model Based on Large Language Models Throughout the Entire Process [8.820909397907274]
完全に解釈可能な言語グラフ表現学習法(VGRL)を提案する。
従来のグラフ機械学習モデルとは対照的に、VGRLはこのパラメータ空間をテキスト記述に制約する。
VGRLの有効性を実証的に評価するために,いくつかの研究を行った。
論文 参考訳(メタデータ) (2024-10-02T12:07:47Z) - SPGNN: Recognizing Salient Subgraph Patterns via Enhanced Graph Convolution and Pooling [25.555741218526464]
グラフニューラルネットワーク(GNN)は、グラフやネットワークのような非ユークリッドデータ上での機械学習の分野に革命をもたらした。
本稿では,ノード表現をインジェクティブに更新する結合型グラフ畳み込み機構を提案する。
また,WL-SortPoolと呼ばれるグラフプーリングモジュールを設計し,重要なサブグラフパターンをディープラーニングで学習する。
論文 参考訳(メタデータ) (2024-04-21T13:11:59Z) - GraphGLOW: Universal and Generalizable Structure Learning for Graph
Neural Networks [72.01829954658889]
本稿では,この新たな問題設定の数学的定義を紹介する。
一つのグラフ共有構造学習者と複数のグラフ固有GNNを協調する一般的なフレームワークを考案する。
十分に訓練された構造学習者は、微調整なしで、目に見えない対象グラフの適応的な構造を直接生成することができる。
論文 参考訳(メタデータ) (2023-06-20T03:33:22Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Heterogeneous Graph Neural Networks using Self-supervised Reciprocally
Contrastive Learning [102.9138736545956]
不均一グラフニューラルネットワーク(HGNN)は異種グラフのモデリングと解析において非常に一般的な手法である。
我々は,ノード属性とグラフトポロジの各ガイダンスに関する2つの視点を取り入れた,新規で頑健なヘテロジニアスグラフコントラスト学習手法であるHGCLを初めて開発する。
この新しいアプローチでは,属性とトポロジに関連情報を別々にマイニングする手法として,異なるが最も適した属性とトポロジの融合機構を2つの視点に適用する。
論文 参考訳(メタデータ) (2022-04-30T12:57:02Z) - Graph Representation Learning with Individualization and Refinement [19.436520792345064]
グラフニューラルネットワーク(GNN)は、グラフ構造化データ上での表現学習の顕著なモデルとして登場した。
本研究では、個人化・再分極(IR)の古典的アプローチに従う。
我々の手法は、計算複雑性を管理しつつ、よりリッチなノード埋め込みを学習することを可能にする。
論文 参考訳(メタデータ) (2022-03-17T07:50:48Z) - A Robust and Generalized Framework for Adversarial Graph Embedding [73.37228022428663]
本稿では,AGE という逆グラフ埋め込みのための頑健なフレームワークを提案する。
AGEは、暗黙の分布から強化された負のサンプルとして偽の隣接ノードを生成する。
本フレームワークでは,3種類のグラフデータを扱う3つのモデルを提案する。
論文 参考訳(メタデータ) (2021-05-22T07:05:48Z) - Uniting Heterogeneity, Inductiveness, and Efficiency for Graph
Representation Learning [68.97378785686723]
グラフニューラルネットワーク(GNN)は,グラフ上のノード表現学習の性能を大幅に向上させた。
GNNの過半数クラスは均質グラフのためにのみ設計されており、より有益な異種グラフに劣る適応性をもたらす。
本稿では,低次ノードと高次ノードの両方のエッジに付随するヘテロジニアスなノード特徴をパッケージ化する,新しい帰納的メタパスフリーメッセージパッシング方式を提案する。
論文 参考訳(メタデータ) (2021-04-04T23:31:39Z) - Learning the Implicit Semantic Representation on Graph-Structured Data [57.670106959061634]
グラフ畳み込みネットワークにおける既存の表現学習手法は主に、各ノードの近傍を知覚全体として記述することで設計される。
本稿では,グラフの潜在意味パスを学習することで暗黙的な意味を探索する意味グラフ畳み込みネットワーク(sgcn)を提案する。
論文 参考訳(メタデータ) (2021-01-16T16:18:43Z) - A Light Heterogeneous Graph Collaborative Filtering Model using Textual
Information [16.73333758538986]
我々は,高度自然言語処理(NLP)モデルを用いて,関連性があり,アクセスしやすいテキスト情報を利用する。
ヘテロジニアスグラフ上のRGCN(RGCN,リレーショナルグラフ畳み込みネットワーク)協調フィルタリング手法を提案する。
論文 参考訳(メタデータ) (2020-10-04T11:10:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。