論文の概要: GraphGLOW: Universal and Generalizable Structure Learning for Graph
Neural Networks
- arxiv url: http://arxiv.org/abs/2306.11264v1
- Date: Tue, 20 Jun 2023 03:33:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 15:41:49.933301
- Title: GraphGLOW: Universal and Generalizable Structure Learning for Graph
Neural Networks
- Title(参考訳): GraphGLOW: グラフニューラルネットワークのための普遍的で一般化可能な構造学習
- Authors: Wentao Zhao, Qitian Wu, Chenxiao Yang and Junchi Yan
- Abstract要約: 本稿では,この新たな問題設定の数学的定義を紹介する。
一つのグラフ共有構造学習者と複数のグラフ固有GNNを協調する一般的なフレームワークを考案する。
十分に訓練された構造学習者は、微調整なしで、目に見えない対象グラフの適応的な構造を直接生成することができる。
- 参考スコア(独自算出の注目度): 72.01829954658889
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph structure learning is a well-established problem that aims at
optimizing graph structures adaptive to specific graph datasets to help message
passing neural networks (i.e., GNNs) to yield effective and robust node
embeddings. However, the common limitation of existing models lies in the
underlying \textit{closed-world assumption}: the testing graph is the same as
the training graph. This premise requires independently training the structure
learning model from scratch for each graph dataset, which leads to prohibitive
computation costs and potential risks for serious over-fitting. To mitigate
these issues, this paper explores a new direction that moves forward to learn a
universal structure learning model that can generalize across graph datasets in
an open world. We first introduce the mathematical definition of this novel
problem setting, and describe the model formulation from a probabilistic
data-generative aspect. Then we devise a general framework that coordinates a
single graph-shared structure learner and multiple graph-specific GNNs to
capture the generalizable patterns of optimal message-passing topology across
datasets. The well-trained structure learner can directly produce adaptive
structures for unseen target graphs without any fine-tuning. Across diverse
datasets and various challenging cross-graph generalization protocols, our
experiments show that even without training on target graphs, the proposed
model i) significantly outperforms expressive GNNs trained on input
(non-optimized) topology, and ii) surprisingly performs on par with
state-of-the-art models that independently optimize adaptive structures for
specific target graphs, with notably orders-of-magnitude acceleration for
training on the target graph.
- Abstract(参考訳): グラフ構造学習(graph structure learning)は、特定のグラフデータセットに適応したグラフ構造を最適化することを目的とした、確立された問題である。
しかし、既存のモデルの一般的な制限は、基礎となる \textit{closed-world assumption}: テストグラフはトレーニンググラフと同じである。
この前提では、各グラフデータセットに対して、独立した構造学習モデルをスクラッチからトレーニングする必要がある。
これらの問題を緩和するために,オープンワールドにおけるグラフデータセットをまたいで一般化可能な普遍的な構造学習モデルを学ぶための新たな方向を探る。
まず,新しい問題設定の数学的定義を導入し,確率論的データ生成的側面からモデル定式化を説明する。
次に,1つのグラフ共有構造学習者と複数のグラフ固有GNNをコーディネートする汎用フレームワークを考案し,データセット間の最適なメッセージパストポロジの一般化可能なパターンを捉える。
十分に訓練された構造学習者は、微調整なしで、目に見えない対象グラフの適応的な構造を直接生成することができる。
多様なデータセットと様々な難解なクロスグラフ一般化プロトコルをまたいだ実験により,対象グラフのトレーニングがなくても,提案モデルが提案されている。
一 入力(非最適化)トポロジで訓練された表現的GNNを著しく上回り、
ii) 特定の対象グラフに対する適応構造を独立に最適化する最先端モデル、特に目標グラフでのトレーニングのための桁違いな加速度モデルと驚くほど同等の性能を発揮する。
関連論文リスト
- AnyGraph: Graph Foundation Model in the Wild [16.313146933922752]
グラフ基盤モデルは、グラフデータから堅牢で一般化可能な表現を学ぶ可能性を提供します。
本研究では,主要な課題に対処するために設計された統一グラフモデルであるAnyGraphについて検討する。
多様な38のグラフデータセットに対する実験は、AnyGraphの強力なゼロショット学習性能を実証した。
論文 参考訳(メタデータ) (2024-08-20T09:57:13Z) - UniGraph: Learning a Unified Cross-Domain Foundation Model for Text-Attributed Graphs [30.635472655668078]
Text-Attributed Graphs (TAG) は、さまざまなドメインにまたがる見えないグラフやタスクに一般化することができる。
本稿では,言語モデル (LM) とグラフニューラルネットワーク (GNN) をバックボーンネットワークとして,新しいケースドアーキテクチャを提案する。
本モデルの有効性を,未確認グラフの自己教師型表現学習,少数ショットインコンテキスト転送,ゼロショット転送で実証する。
論文 参考訳(メタデータ) (2024-02-21T09:06:31Z) - Learning Adaptive Neighborhoods for Graph Neural Networks [45.94778766867247]
グラフ畳み込みネットワーク(GCN)は、グラフ構造化データのエンドツーエンド学習を可能にする。
本稿では,グラフトポロジを構築する新しいエンドツーエンドの微分可能なグラフ生成器を提案する。
私たちのモジュールは、グラフ畳み込み操作を含む既存のパイプラインに簡単に統合できます。
論文 参考訳(メタデータ) (2023-07-18T08:37:25Z) - Semantic Graph Neural Network with Multi-measure Learning for
Semi-supervised Classification [5.000404730573809]
近年,グラフニューラルネットワーク(GNN)が注目されている。
近年の研究では、GNNはグラフの複雑な基盤構造に弱いことが示されている。
半教師付き分類のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-04T06:17:11Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z) - Customized Graph Neural Networks [38.30640892828196]
グラフニューラルネットワーク(GNN)は,グラフ分類のタスクを大幅に進歩させた。
本稿では,新たにカスタマイズされたグラフニューラルネットワークフレームワークであるCustomized-GNNを提案する。
提案するフレームワークは非常に一般的なもので,既存のグラフニューラルネットワークモデルにも適用可能である。
論文 参考訳(メタデータ) (2020-05-22T05:22:24Z) - Adaptive Graph Auto-Encoder for General Data Clustering [90.8576971748142]
グラフベースのクラスタリングは、クラスタリング領域において重要な役割を果たす。
グラフ畳み込みニューラルネットワークに関する最近の研究は、グラフ型データにおいて驚くべき成功を収めている。
本稿では,グラフの生成的視点に応じて適応的にグラフを構成する汎用データクラスタリングのためのグラフ自動エンコーダを提案する。
論文 参考訳(メタデータ) (2020-02-20T10:11:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。