論文の概要: OpenGraph: Towards Open Graph Foundation Models
- arxiv url: http://arxiv.org/abs/2403.01121v1
- Date: Sat, 2 Mar 2024 08:05:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 15:06:42.216251
- Title: OpenGraph: Towards Open Graph Foundation Models
- Title(参考訳): OpenGraph: Open Graph Foundationモデルに向けて
- Authors: Lianghao Xia, Ben Kao and Chao Huang
- Abstract要約: 本研究では,多種多様なグラフデータに存在する複雑なトポロジ的パターンを理解するための一般グラフ基盤モデルを構築した。
本稿では,グラフモデルに統一的なグラフトークン化手法を提案する。
また,グローバルなトポロジ的コンテキスト内のノード依存性を効果的にキャプチャするスケーラブルなグラフ変換器を開発した。
- 参考スコア(独自算出の注目度): 22.929100194849113
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph learning has become indispensable for interpreting and harnessing
relational data in diverse fields, ranging from recommendation systems to
social network analysis. In this context, a variety of GNNs have emerged as
promising methodologies for encoding the structural information of graphs. By
effectively capturing the graph's underlying structure, these GNNs have shown
great potential in enhancing performance in graph learning tasks, such as link
prediction and node classification. However, despite their successes, a
significant challenge persists: these advanced methods often face difficulties
in generalizing to unseen graph data that significantly differs from the
training instances. In this work, our aim is to advance the graph learning
paradigm by developing a general graph foundation model. This model is designed
to understand the complex topological patterns present in diverse graph data,
enabling it to excel in zero-shot graph learning tasks across different
downstream datasets. To achieve this goal, we address several key technical
challenges in our OpenGraph model. Firstly, we propose a unified graph
tokenizer to adapt our graph model to generalize well on unseen graph data,
even when the underlying graph properties differ significantly from those
encountered during training. Secondly, we develop a scalable graph transformer
as the foundational encoder, which effectively captures node-wise dependencies
within the global topological context. Thirdly, we introduce a data
augmentation mechanism enhanced by a LLM to alleviate the limitations of data
scarcity in real-world scenarios. Extensive experiments validate the
effectiveness of our framework. By adapting our OpenGraph to new graph
characteristics and comprehending the nuances of diverse graphs, our approach
achieves remarkable zero-shot graph learning performance across various
settings and domains.
- Abstract(参考訳): グラフ学習は、レコメンデーションシステムからソーシャルネットワーク分析まで、さまざまな分野における関係データの解釈と活用に不可欠である。
この文脈では、グラフの構造情報を符号化するための有望な手法として様々なGNNが出現している。
グラフの基盤構造を効果的に把握することにより、これらのGNNは、リンク予測やノード分類といったグラフ学習タスクのパフォーマンスを高める大きな可能性を示している。
これらの高度な手法は、トレーニングインスタンスと大きく異なる未確認のグラフデータへの一般化において、しばしば困難に直面します。
本研究の目的は,汎用グラフ基礎モデルの開発により,グラフ学習パラダイムを前進させることである。
このモデルは、多様なグラフデータに存在する複雑なトポロジパターンを理解するために設計されており、異なる下流データセットをまたいだゼロショットグラフ学習タスクを最適化することができる。
この目標を達成するために、OpenGraphモデルのいくつかの重要な技術的課題に対処します。
まず,基礎となるグラフ特性がトレーニング中に遭遇したグラフと大きく異なる場合でも,グラフモデルを適用して未認識のグラフデータにうまく一般化する統一グラフトークン化手法を提案する。
第2に,グローバルトポロジカルコンテキスト内のノード依存性を効果的にキャプチャする基盤エンコーダとして,スケーラブルなグラフトランスフォーマを開発する。
第3に,LLMによって強化されたデータ拡張機構を導入し,実世界のシナリオにおけるデータ不足の限界を軽減する。
広範な実験は、我々のフレームワークの有効性を検証する。
我々はOpenGraphを新しいグラフ特性に適用し、多様なグラフのニュアンスを理解することにより、様々な設定や領域にわたって優れたゼロショットグラフ学習性能を実現する。
関連論文リスト
- AnyGraph: Graph Foundation Model in the Wild [16.313146933922752]
グラフ基盤モデルは、グラフデータから堅牢で一般化可能な表現を学ぶ可能性を提供します。
本研究では,主要な課題に対処するために設計された統一グラフモデルであるAnyGraphについて検討する。
多様な38のグラフデータセットに対する実験は、AnyGraphの強力なゼロショット学習性能を実証した。
論文 参考訳(メタデータ) (2024-08-20T09:57:13Z) - GraphAlign: Pretraining One Graph Neural Network on Multiple Graphs via Feature Alignment [30.56443056293688]
グラフ自己教師型学習(SSL)は、グラフ構造化データによるマイニングと学習をかなり約束する。
本研究では,グラフニューラルネットワーク(GNN)を,豊富なノード特徴を持つグラフのコレクションにプリトレーニングすることを目的としている。
本稿では,既存のグラフSSLフレームワークにシームレスに統合可能な汎用GraphAlign法を提案する。
論文 参考訳(メタデータ) (2024-06-05T05:22:32Z) - GraphEdit: Large Language Models for Graph Structure Learning [62.618818029177355]
グラフ構造学習(GSL)は、グラフ構造データ中のノード間の固有の依存関係と相互作用をキャプチャすることに焦点を当てている。
既存のGSL法は、監督信号として明示的なグラフ構造情報に大きく依存している。
グラフ構造化データの複雑なノード関係を学習するために,大規模言語モデル(LLM)を利用したグラフ編集を提案する。
論文 参考訳(メタデータ) (2024-02-23T08:29:42Z) - SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - GraphGLOW: Universal and Generalizable Structure Learning for Graph
Neural Networks [72.01829954658889]
本稿では,この新たな問題設定の数学的定義を紹介する。
一つのグラフ共有構造学習者と複数のグラフ固有GNNを協調する一般的なフレームワークを考案する。
十分に訓練された構造学習者は、微調整なしで、目に見えない対象グラフの適応的な構造を直接生成することができる。
論文 参考訳(メタデータ) (2023-06-20T03:33:22Z) - Data Augmentation for Deep Graph Learning: A Survey [66.04015540536027]
まず,グラフデータ拡張のための分類法を提案し,その拡張情報モダリティに基づいて関連研究を分類し,構造化されたレビューを提供する。
DGLにおける2つの課題(すなわち、最適グラフ学習と低リソースグラフ学習)に焦点を当て、グラフデータ拡張に基づく既存の学習パラダイムについて議論し、レビューする。
論文 参考訳(メタデータ) (2022-02-16T18:30:33Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - Co-embedding of Nodes and Edges with Graph Neural Networks [13.020745622327894]
グラフ埋め込みは、高次元および非ユークリッド特徴空間でデータ構造を変換しエンコードする方法である。
CensNetは一般的なグラフ埋め込みフレームワークで、ノードとエッジの両方を潜在機能空間に埋め込む。
提案手法は,4つのグラフ学習課題における最先端のパフォーマンスを達成または一致させる。
論文 参考訳(メタデータ) (2020-10-25T22:39:31Z) - Graph Contrastive Learning with Augmentations [109.23158429991298]
グラフデータの教師なし表現を学習するためのグラフコントラスト学習(GraphCL)フレームワークを提案する。
我々のフレームワークは、最先端の手法と比較して、類似またはより良い一般化可能性、転送可能性、堅牢性のグラフ表現を作成できることを示す。
論文 参考訳(メタデータ) (2020-10-22T20:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。