論文の概要: Are we really making much progress? Revisiting, benchmarking, and
refining heterogeneous graph neural networks
- arxiv url: http://arxiv.org/abs/2112.14936v1
- Date: Thu, 30 Dec 2021 06:29:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-03 15:48:41.599790
- Title: Are we really making much progress? Revisiting, benchmarking, and
refining heterogeneous graph neural networks
- Title(参考訳): 私たちは本当に大きな進歩を遂げていますか?
ヘテロジニアスグラフニューラルネットワークの再検討、ベンチマーク、精製
- Authors: Qingsong Lv, Ming Ding, Qiang Liu, Yuxiang Chen, Wenzheng Feng, Siming
He, Chang Zhou, Jianguo Jiang, Yuxiao Dong, Jie Tang
- Abstract要約: 異種グラフニューラルネットワーク(HGNN)の系統的再生について述べる。
単純な同種GNN(例えばGCNとGAT)は、不適切な設定のため、大半が過小評価されている。
頑健で再現可能なHGNN研究を容易にするため、異種グラフベンチマーク(HGB)を構築した。
- 参考スコア(独自算出の注目度): 38.15094159495419
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Heterogeneous graph neural networks (HGNNs) have been blossoming in recent
years, but the unique data processing and evaluation setups used by each work
obstruct a full understanding of their advancements. In this work, we present a
systematical reproduction of 12 recent HGNNs by using their official codes,
datasets, settings, and hyperparameters, revealing surprising findings about
the progress of HGNNs. We find that the simple homogeneous GNNs, e.g., GCN and
GAT, are largely underestimated due to improper settings. GAT with proper
inputs can generally match or outperform all existing HGNNs across various
scenarios. To facilitate robust and reproducible HGNN research, we construct
the Heterogeneous Graph Benchmark (HGB), consisting of 11 diverse datasets with
three tasks. HGB standardizes the process of heterogeneous graph data splits,
feature processing, and performance evaluation. Finally, we introduce a simple
but very strong baseline Simple-HGN--which significantly outperforms all
previous models on HGB--to accelerate the advancement of HGNNs in the future.
- Abstract(参考訳): ヘテロジニアスグラフニューラルネットワーク(hgnn)は近年花開いたが、各作業で使用されるユニークなデータ処理と評価設定は、その進歩を完全に理解することを妨げる。
本研究では,HGNNの進捗について,公式コード,データセット,設定,ハイパーパラメータを用いて,最新の12のHGNNを体系的に再現した。
単純な同種GNN(例えばGCNとGAT)は、不適切な設定のため、大半が過小評価されている。
適切な入力を持つGATは、一般的に、様々なシナリオで既存のHGNNにマッチまたは性能を向上することができる。
頑健で再現可能なHGNN研究を容易にするため,11の多様なデータセットと3つのタスクからなるHGB(Heterogeneous Graph Benchmark)を構築した。
HGBは異種グラフデータの分割、特徴処理、性能評価のプロセスを標準化する。
最後に,HGBモデルにおいて,HGNNの進歩を加速するため,HGBモデルにおいて従来のモデルよりも大幅に性能が向上する,シンプルだが非常に強力なベースラインであるSimple-HGNを導入する。
関連論文リスト
- Diffusing to the Top: Boost Graph Neural Networks with Minimal Hyperparameter Tuning [33.948899558876604]
グラフ条件付き潜在拡散フレームワーク(GNN-Diff)を導入し,高性能なGNNを生成する。
提案手法は,小,大,長距離グラフ上のノード分類とリンク予測という4つのグラフタスクを対象とした166の実験を通じて検証する。
論文 参考訳(メタデータ) (2024-10-08T05:27:34Z) - BG-HGNN: Toward Scalable and Efficient Heterogeneous Graph Neural
Network [6.598758004828656]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフ用に設計された有望なニューラルモデルクラスである。
既存のHGNNは、様々な関係をモデル化するために異なるパラメータ空間を使用する。
本稿では,Blend&Grind-HGNNについて紹介する。
論文 参考訳(メタデータ) (2024-03-13T03:03:40Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - GCNH: A Simple Method For Representation Learning On Heterophilous
Graphs [4.051099980410583]
グラフニューラルネットワーク(GNN)は、ホモフィルグラフの学習に適している。
近年,異種グラフの性能向上を目的とした標準GNNアーキテクチャの拡張が提案されている。
ヘテロフィリィ(GCNH)のためのGCNを提案し,ヘテロフィリィシナリオとホモフィリィシナリオの両方に適用できる簡易かつ効果的なGNNアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-04-21T11:26:24Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Exploiting Neighbor Effect: Conv-Agnostic GNNs Framework for Graphs with
Heterophily [58.76759997223951]
我々はフォン・ノイマンエントロピーに基づく新しい計量を提案し、GNNのヘテロフィリー問題を再検討する。
また、異種データセット上でのほとんどのGNNの性能を高めるために、Conv-Agnostic GNNフレームワーク(CAGNN)を提案する。
論文 参考訳(メタデータ) (2022-03-19T14:26:43Z) - Is Homophily a Necessity for Graph Neural Networks? [50.959340355849896]
グラフニューラルネットワーク(GNN)は、多数のグラフベースの機械学習タスクに適した学習表現において大きな進歩を見せている。
GNNはホモフィリーな仮定によりうまく機能し、異種ノードが接続する異種グラフへの一般化に失敗したと広く信じられている。
最近の研究は、このような不均一な制限を克服する新しいアーキテクチャを設計し、ベースライン性能の低さと、この概念の証拠として、いくつかの異種グラフベンチマークデータセットに対するアーキテクチャの改善を引用している。
我々の実験では、標準グラフ畳み込みネットワーク(GCN)が実際よりも優れた性能を実現できることを実証的に見出した。
論文 参考訳(メタデータ) (2021-06-11T02:44:00Z) - Boost then Convolve: Gradient Boosting Meets Graph Neural Networks [6.888700669980625]
グラデーションブースト決定木(gbdt)は,異種データに対して他の機械学習手法よりも優れていることが示されている。
我々は,gbdt と gnn を共同で訓練し,両世界のベストを勝ち取る新しいアーキテクチャを提案する。
我々のモデルは、GNNの勾配更新に新しい木を適合させることにより、エンドツーエンドの最適化の恩恵を受ける。
論文 参考訳(メタデータ) (2021-01-21T10:46:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。