論文の概要: UniGNN: a Unified Framework for Graph and Hypergraph Neural Networks
- arxiv url: http://arxiv.org/abs/2105.00956v1
- Date: Mon, 3 May 2021 15:48:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-04 13:40:03.201854
- Title: UniGNN: a Unified Framework for Graph and Hypergraph Neural Networks
- Title(参考訳): UniGNN: グラフとハイパーグラフニューラルネットワークのための統一フレームワーク
- Authors: Jing Huang, Jie Yang
- Abstract要約: エンティティ間の高次相関をモデル化するフレキシブルな表現構造であるhypergraphは、近年様々な研究領域から注目を集めている。
グラフおよびハイパーグラフニューラルネットワークにおけるメッセージパッシングプロセスを解釈するための統一フレームワークであるUniGNNを提案する。
複数の実世界のデータセットに対するUniGNNの有効性を示す実験が行われている。
- 参考スコア(独自算出の注目度): 8.777765815864367
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Hypergraph, an expressive structure with flexibility to model the
higher-order correlations among entities, has recently attracted increasing
attention from various research domains. Despite the success of Graph Neural
Networks (GNNs) for graph representation learning, how to adapt the powerful
GNN-variants directly into hypergraphs remains a challenging problem. In this
paper, we propose UniGNN, a unified framework for interpreting the message
passing process in graph and hypergraph neural networks, which can generalize
general GNN models into hypergraphs. In this framework, meticulously-designed
architectures aiming to deepen GNNs can also be incorporated into hypergraphs
with the least effort. Extensive experiments have been conducted to demonstrate
the effectiveness of UniGNN on multiple real-world datasets, which outperform
the state-of-the-art approaches with a large margin. Especially for the DBLP
dataset, we increase the accuracy from 77.4\% to 88.8\% in the semi-supervised
hypernode classification task. We further prove that the proposed
message-passing based UniGNN models are at most as powerful as the
1-dimensional Generalized Weisfeiler-Leman (1-GWL) algorithm in terms of
distinguishing non-isomorphic hypergraphs. Our code is available at
\url{https://github.com/OneForward/UniGNN}.
- Abstract(参考訳): エンティティ間の高次相関をモデル化するフレキシブルな表現構造であるhypergraphは、近年様々な研究領域から注目を集めている。
グラフ表現学習におけるグラフニューラルネットワーク(GNN)の成功にもかかわらず、強力なGNN変種を直接ハイパーグラフに適応する方法は難しい問題である。
本稿では,一般的なGNNモデルをハイパーグラフに一般化可能な,グラフおよびハイパーグラフニューラルネットワークにおけるメッセージパッシングプロセスの統一的解釈フレームワークUniGNNを提案する。
このフレームワークでは、GNNの深層化を念頭に設計したアーキテクチャを、最小限の努力でハイパーグラフに組み込むこともできる。
複数の実世界のデータセットに対するUniGNNの有効性を示す大規模な実験が行われ、これは最先端のアプローチよりも大きなマージンを持つ。
特にDBLPデータセットでは,半教師付きハイパーノード分類タスクにおいて,77.4\%から88.8\%に精度を向上する。
さらに,提案するメッセージパッシングに基づくunignnモデルは1次元一般化weisfeiler-leman (1-gwl) アルゴリズムと同様に,非同型なハイパーグラフを識別できることを示す。
私たちのコードは \url{https://github.com/OneForward/UniGNN} で利用可能です。
関連論文リスト
- Self-Supervised Pretraining for Heterogeneous Hypergraph Neural Networks [9.987252149421982]
異種HyperGNNのための自己教師型事前学習フレームワークを提案する。
本手法は,データ内のエンティティ間の高次関係を,自己教師型で効果的に捉えることができる。
実験の結果,提案するフレームワークは,様々なダウンストリームタスクにおいて,最先端のベースラインを一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2023-11-19T16:34:56Z) - MAG-GNN: Reinforcement Learning Boosted Graph Neural Network [68.60884768323739]
特定の研究の行は、GNNの表現性を向上させるためにサブグラフ情報を使用するサブグラフGNNを提案し、大きな成功を収めた。
このような効果は、すべての可能な部分グラフを列挙することによって、GNNの効率を犠牲にする。
本稿では,強化学習(RL)により強化されたGNNである磁気グラフニューラルネットワーク(MAG-GNN)を提案する。
論文 参考訳(メタデータ) (2023-10-29T20:32:21Z) - UniG-Encoder: A Universal Feature Encoder for Graph and Hypergraph Node
Classification [6.977634174845066]
グラフおよびハイパーグラフ表現学習のための普遍的特徴エンコーダ(UniG-Encoder)が設計されている。
アーキテクチャは、連結ノードのトポロジ的関係をエッジやハイパーエッジに前方変換することから始まる。
符号化されたノードの埋め込みは、投影行列の変換によって記述された逆変換から導かれる。
論文 参考訳(メタデータ) (2023-08-03T09:32:50Z) - Tensorized Hypergraph Neural Networks [69.65385474777031]
我々は,新しいアジャケーシテンソルベースのtextbfTensorized textbfHypergraph textbfNeural textbfNetwork (THNN) を提案する。
THNNは高次外装機能パッシングメッセージを通じて、忠実なハイパーグラフモデリングフレームワークである。
3次元視覚オブジェクト分類のための2つの広く使われているハイパーグラフデータセットの実験結果から、モデルの有望な性能を示す。
論文 参考訳(メタデータ) (2023-06-05T03:26:06Z) - Geodesic Graph Neural Network for Efficient Graph Representation
Learning [34.047527874184134]
我々はGeodesic GNN(GDGNN)と呼ばれる効率的なGNNフレームワークを提案する。
ラベル付けなしでノード間の条件付き関係をモデルに注入する。
ジオデシック表現を前提としたGDGNNは、通常のGNNよりもはるかにリッチな構造情報を持つノード、リンク、グラフ表現を生成することができる。
論文 参考訳(メタデータ) (2022-10-06T02:02:35Z) - Hypergraph Convolutional Networks via Equivalency between Hypergraphs
and Undirected Graphs [59.71134113268709]
本稿では,EDVWおよびEIVWハイパーグラフを処理可能な一般学習フレームワークであるGeneral Hypergraph Spectral Convolution(GHSC)を提案する。
本稿では,提案するフレームワークが最先端の性能を達成できることを示す。
ソーシャルネットワーク分析,視覚的客観的分類,タンパク質学習など,様々な分野の実験により,提案手法が最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2022-03-31T10:46:47Z) - Residual Enhanced Multi-Hypergraph Neural Network [26.42547421121713]
HyperGraph Neural Network (HGNN) はハイパーグラフ表現学習のためのデファクト手法である。
本稿では,各ハイパーグラフからのマルチモーダル情報を効果的に融合できるResidual enhanced Multi-Hypergraph Neural Networkを提案する。
論文 参考訳(メタデータ) (2021-05-02T14:53:32Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - GPT-GNN: Generative Pre-Training of Graph Neural Networks [93.35945182085948]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力であることが示されている。
生成事前学習によりGNNを初期化するためのGPT-GNNフレームワークを提案する。
GPT-GNNは、様々な下流タスクにおいて、事前トレーニングを最大9.1%行うことなく、最先端のGNNモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2020-06-27T20:12:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。