論文の概要: Learning How to Propagate Messages in Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2310.00697v1
- Date: Sun, 1 Oct 2023 15:09:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 02:28:46.434251
- Title: Learning How to Propagate Messages in Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークにおけるメッセージ伝達の学習
- Authors: Teng Xiao, Zhengyu Chen, Donglin Wang, and Suhang Wang
- Abstract要約: 本稿では,グラフニューラルネットワーク(GNN)におけるメッセージ伝搬戦略の学習問題について検討する。
本稿では,GNNパラメータの最大類似度推定を支援するために,最適伝搬ステップを潜時変数として導入する。
提案フレームワークは,GNNにおけるメッセージのパーソナライズおよび解釈可能な伝達戦略を効果的に学習することができる。
- 参考スコア(独自算出の注目度): 55.2083896686782
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies the problem of learning message propagation strategies for
graph neural networks (GNNs). One of the challenges for graph neural networks
is that of defining the propagation strategy. For instance, the choices of
propagation steps are often specialized to a single graph and are not
personalized to different nodes. To compensate for this, in this paper, we
present learning to propagate, a general learning framework that not only
learns the GNN parameters for prediction but more importantly, can explicitly
learn the interpretable and personalized propagate strategies for different
nodes and various types of graphs. We introduce the optimal propagation steps
as latent variables to help find the maximum-likelihood estimation of the GNN
parameters in a variational Expectation-Maximization (VEM) framework. Extensive
experiments on various types of graph benchmarks demonstrate that our proposed
framework can significantly achieve better performance compared with the
state-of-the-art methods, and can effectively learn personalized and
interpretable propagate strategies of messages in GNNs.
- Abstract(参考訳): 本稿では,グラフニューラルネットワーク(gnns)におけるメッセージ伝達戦略の学習問題について述べる。
グラフニューラルネットワークの課題のひとつは、伝播戦略を定義することだ。
例えば、伝搬ステップの選択は単一のグラフに特化され、異なるノードにパーソナライズされないことが多い。
そこで本稿では,予測のためのGNNパラメータを学習するだけでなく,さまざまなノードやグラフに対して,解釈可能な,パーソナライズされた伝搬戦略を明示的に学習する一般学習フレームワークである伝搬学習を提案する。
本稿では,可変期待最大化(vem)フレームワークにおけるgnnパラメータの最大類似度推定を求めるために,潜在変数として最適伝播ステップを導入する。
各種グラフベンチマークの大規模な実験により,提案するフレームワークは最先端の手法と比較して性能が著しく向上し,GNNにおけるメッセージのパーソナライズおよび解釈可能な伝達戦略を効果的に学習できることを示した。
関連論文リスト
- DiRW: Path-Aware Digraph Learning for Heterophily [23.498557237805414]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのための強力な表現学習ツールとして登場した。
我々は,プラグイン・アンド・プレイ戦略や革新的なニューラルアーキテクチャとみなすことができるDirected Random Walk (DiRW)を提案する。
DiRWには、歩行確率、長さ、および数の観点から最適化された方向対応パスサンプリング器が組み込まれている。
論文 参考訳(メタデータ) (2024-10-14T09:26:56Z) - Next Level Message-Passing with Hierarchical Support Graphs [20.706469085872516]
階層型サポートグラフ(Hierarchical Support Graph, HSG)は、特定のMPNN層に依存しない、グラフ内の情報フローを強化するフレームワークである。
本稿では, HSGの理論的解析を行い, その経験的性能について検討し, 仮想ノードで拡張した他の手法よりもHSGの方が優れていることを示す。
論文 参考訳(メタデータ) (2024-06-22T13:57:09Z) - GraphGLOW: Universal and Generalizable Structure Learning for Graph
Neural Networks [72.01829954658889]
本稿では,この新たな問題設定の数学的定義を紹介する。
一つのグラフ共有構造学習者と複数のグラフ固有GNNを協調する一般的なフレームワークを考案する。
十分に訓練された構造学習者は、微調整なしで、目に見えない対象グラフの適応的な構造を直接生成することができる。
論文 参考訳(メタデータ) (2023-06-20T03:33:22Z) - Learning Strong Graph Neural Networks with Weak Information [64.64996100343602]
我々は、弱い情報(GLWI)を用いたグラフ学習問題に対する原則的アプローチを開発する。
非完全構造を持つ入力グラフ上で長距離情報伝搬を行うデュアルチャネルGNNフレームワークであるD$2$PTを提案するが、グローバルな意味的類似性を符号化するグローバルグラフも提案する。
論文 参考訳(メタデータ) (2023-05-29T04:51:09Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - Towards Better Generalization with Flexible Representation of
Multi-Module Graph Neural Networks [0.27195102129094995]
ランダムグラフ生成器を用いて,グラフサイズと構造特性がGNNの予測性能に与える影響について検討する。
本稿では,GNNが未知のグラフに一般化できるかどうかを決定する上で,平均ノード次数が重要な特徴であることを示す。
集約された入力に対して単一の正準非線形変換を一般化することにより、ネットワークが新しいグラフに柔軟に対応可能なマルチモジュールGNNフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-14T12:13:59Z) - Scaling Up Graph Neural Networks Via Graph Coarsening [18.176326897605225]
グラフニューラルネットワーク(GNN)のスケーラビリティは、マシンラーニングにおける大きな課題のひとつだ。
本稿では,GNNのスケーラブルなトレーニングにグラフ粗大化を用いることを提案する。
既成の粗大化法を単純に適用すれば,分類精度を著しく低下させることなく,ノード数を最大10倍に削減できることを示す。
論文 参考訳(メタデータ) (2021-06-09T15:46:17Z) - HeteGCN: Heterogeneous Graph Convolutional Networks for Text
Classification [1.9739269019020032]
我々はヘテロジニアスグラフ畳み込みネットワーク(HeteGCN)モデリング手法を提案する。
主なアイデアは、機能埋め込みを学び、HeteGCNアーキテクチャを使ってドキュメント埋め込みを導出することである。
事実上、モデルパラメータの数は大幅に削減され、小さなラベル付きトレーニングセットのシナリオにおいて、より高速なトレーニングとパフォーマンスの向上が可能になる。
論文 参考訳(メタデータ) (2020-08-19T12:24:35Z) - Policy-GNN: Aggregation Optimization for Graph Neural Networks [60.50932472042379]
グラフニューラルネットワーク(GNN)は、局所的なグラフ構造をモデル化し、隣人からの情報を集約することで階層的なパターンを捉えることを目的としている。
複雑なグラフとスパースな特徴を与えられた各ノードに対して効果的なアグリゲーション戦略を開発することは難しい課題である。
本稿では,GNNのサンプリング手順とメッセージパッシングを複合学習プロセスにモデル化するメタ政治フレームワークであるPolicy-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-26T17:03:06Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。