論文の概要: UniG-Encoder: A Universal Feature Encoder for Graph and Hypergraph Node
Classification
- arxiv url: http://arxiv.org/abs/2308.01650v1
- Date: Thu, 3 Aug 2023 09:32:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-04 14:38:26.791647
- Title: UniG-Encoder: A Universal Feature Encoder for Graph and Hypergraph Node
Classification
- Title(参考訳): UniG-Encoder:グラフとハイパーグラフのノード分類のためのユニバーサル機能エンコーダ
- Authors: Minhao Zou, Zhongxue Gan, Yutong Wang, Junheng Zhang, Dongyan Sui,
Chun Guan, Siyang Leng
- Abstract要約: グラフおよびハイパーグラフ表現学習のための普遍的特徴エンコーダ(UniG-Encoder)が設計されている。
アーキテクチャは、連結ノードのトポロジ的関係をエッジやハイパーエッジに前方変換することから始まる。
符号化されたノードの埋め込みは、投影行列の変換によって記述された逆変換から導かれる。
- 参考スコア(独自算出の注目度): 6.977634174845066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph and hypergraph representation learning has attracted increasing
attention from various research fields. Despite the decent performance and
fruitful applications of Graph Neural Networks (GNNs), Hypergraph Neural
Networks (HGNNs), and their well-designed variants, on some commonly used
benchmark graphs and hypergraphs, they are outperformed by even a simple
Multi-Layer Perceptron. This observation motivates a reexamination of the
design paradigm of the current GNNs and HGNNs and poses challenges of
extracting graph features effectively. In this work, a universal feature
encoder for both graph and hypergraph representation learning is designed,
called UniG-Encoder. The architecture starts with a forward transformation of
the topological relationships of connected nodes into edge or hyperedge
features via a normalized projection matrix. The resulting edge/hyperedge
features, together with the original node features, are fed into a neural
network. The encoded node embeddings are then derived from the reversed
transformation, described by the transpose of the projection matrix, of the
network's output, which can be further used for tasks such as node
classification. The proposed architecture, in contrast to the traditional
spectral-based and/or message passing approaches, simultaneously and
comprehensively exploits the node features and graph/hypergraph topologies in
an efficient and unified manner, covering both heterophilic and homophilic
graphs. The designed projection matrix, encoding the graph features, is
intuitive and interpretable. Extensive experiments are conducted and
demonstrate the superior performance of the proposed framework on twelve
representative hypergraph datasets and six real-world graph datasets, compared
to the state-of-the-art methods. Our implementation is available online at
https://github.com/MinhZou/UniG-Encoder.
- Abstract(参考訳): グラフとハイパーグラフ表現学習は、様々な研究分野から注目を集めている。
Graph Neural Networks (GNN)、Hypergraph Neural Networks (HGNN)、そしてそのよく設計された変種は、よく使われているベンチマークグラフやハイパーグラフにおいて、十分なパフォーマンスと実りある応用にもかかわらず、単純なマルチ層パーセプトロンでも性能が優れている。
この観察は、現在のGNNとHGNNの設計パラダイムの再検討を動機付け、グラフの特徴を効果的に抽出する上での課題を提起する。
本研究では,UniG-Encoderと呼ばれるグラフおよびハイパーグラフ表現学習のための普遍的特徴エンコーダを設計する。
アーキテクチャは、連結ノードのトポロジカルな関係を正規化されたプロジェクション行列を介してエッジまたはハイパーエッジ特徴に変換することから始まる。
結果として生じるエッジ/ハイパーエッジ機能は、元のノード機能とともに、ニューラルネットワークに入力される。
符号化されたノード埋め込みは、ネットワークの出力の投影行列の転置によって記述された逆変換から導出される。
提案したアーキテクチャは、従来のスペクトルベースおよび/またはメッセージパッシングアプローチとは対照的に、ノード特徴とグラフ/ハイパーグラフトポロジを効率的かつ統一的に利用し、ヘテロ親和性グラフとホモ親和性グラフの両方をカバーする。
グラフ特徴を符号化する設計された投影行列は直感的で解釈可能である。
提案手法は,12個の代表ハイパーグラフデータセットと6つの実世界のグラフデータセットに対して,最先端の手法に比べて優れた性能を示す。
私たちの実装はhttps://github.com/MinhZou/UniG-Encoder.comで公開されています。
関連論文リスト
- Spectral Greedy Coresets for Graph Neural Networks [61.24300262316091]
ノード分類タスクにおける大規模グラフの利用は、グラフニューラルネットワーク(GNN)の現実的な応用を妨げる
本稿では,GNNのグラフコアセットについて検討し,スペクトル埋め込みに基づくエゴグラフの選択により相互依存の問題を回避する。
我々のスペクトルグレディグラフコアセット(SGGC)は、数百万のノードを持つグラフにスケールし、モデル事前学習の必要性を排除し、低ホモフィリーグラフに適用する。
論文 参考訳(メタデータ) (2024-05-27T17:52:12Z) - SPGNN: Recognizing Salient Subgraph Patterns via Enhanced Graph Convolution and Pooling [25.555741218526464]
グラフニューラルネットワーク(GNN)は、グラフやネットワークのような非ユークリッドデータ上での機械学習の分野に革命をもたらした。
本稿では,ノード表現をインジェクティブに更新する結合型グラフ畳み込み機構を提案する。
また,WL-SortPoolと呼ばれるグラフプーリングモジュールを設計し,重要なサブグラフパターンをディープラーニングで学習する。
論文 参考訳(メタデータ) (2024-04-21T13:11:59Z) - Hypergraph Echo State Network [0.0]
グラフの一般化としてのハイパーグラフは、ノード間の高次相互作用を記録し、より柔軟なネットワークモデルをもたらし、ノードのグループの非線形機能を可能にする。
グラフエコー状態ネットワーク(GraphESN)の一般化としてハイパーグラフエコー状態ネットワーク(HypergraphESN)を提案する。
論文 参考訳(メタデータ) (2023-10-16T08:35:23Z) - From Hypergraph Energy Functions to Hypergraph Neural Networks [94.88564151540459]
パラメータ化されたハイパーグラフ正規化エネルギー関数の表現型族を示す。
次に、これらのエネルギーの最小化がノード埋め込みとして効果的に機能することを実証する。
提案した双レベルハイパーグラフ最適化と既存のGNNアーキテクチャを共通的に用いている。
論文 参考訳(メタデータ) (2023-06-16T04:40:59Z) - Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - A Robust Stacking Framework for Training Deep Graph Models with
Multifaceted Node Features [61.92791503017341]
数値ノード特徴とグラフ構造を入力とするグラフニューラルネットワーク(GNN)は,グラフデータを用いた各種教師付き学習タスクにおいて,優れた性能を示した。
IID(non-graph)データをGNNに簡単に組み込むことはできない。
本稿では、グラフ認識の伝播をIDデータに意図した任意のモデルで融合するロバストな積み重ねフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-16T22:46:33Z) - ACE-HGNN: Adaptive Curvature Exploration Hyperbolic Graph Neural Network [72.16255675586089]
本稿では、入力グラフと下流タスクに基づいて最適な曲率を適応的に学習する適応曲率探索ハイパーボリックグラフニューラルネットワークACE-HGNNを提案する。
複数の実世界のグラフデータセットの実験は、競争性能と優れた一般化能力を備えたモデル品質において、顕著で一貫したパフォーマンス改善を示す。
論文 参考訳(メタデータ) (2021-10-15T07:18:57Z) - Scalable Graph Neural Networks for Heterogeneous Graphs [12.44278942365518]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学習するためのパラメトリックモデルの一般的なクラスである。
最近の研究は、GNNが主に機能をスムースにするためにグラフを使用しており、ベンチマークタスクで競合する結果を示していると主張している。
本研究では、これらの結果が異種グラフに拡張可能かどうかを問うとともに、異なるエンティティ間の複数のタイプの関係を符号化する。
論文 参考訳(メタデータ) (2020-11-19T06:03:35Z) - Graph Pooling with Node Proximity for Hierarchical Representation
Learning [80.62181998314547]
本稿では,ノード近接を利用したグラフプーリング手法を提案し,そのマルチホップトポロジを用いたグラフデータの階層的表現学習を改善する。
その結果,提案したグラフプーリング戦略は,公開グラフ分類ベンチマークデータセットの集合において,最先端のパフォーマンスを達成できることが示唆された。
論文 参考訳(メタデータ) (2020-06-19T13:09:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。