論文の概要: Large Scale Learning on Non-Homophilous Graphs: New Benchmarks and
Strong Simple Methods
- arxiv url: http://arxiv.org/abs/2110.14446v1
- Date: Wed, 27 Oct 2021 14:02:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-28 14:00:32.932378
- Title: Large Scale Learning on Non-Homophilous Graphs: New Benchmarks and
Strong Simple Methods
- Title(参考訳): 非親和性グラフによる大規模学習:新しいベンチマークと強力な単純解法
- Authors: Derek Lim, Felix Hohne, Xiuyu Li, Sijia Linda Huang, Vaishnavi Gupta,
Omkar Bhalerao, Ser-Nam Lim
- Abstract要約: 新しいグラフニューラルネットワーク(GNN)が開発され、ホモフィリーレシエーションを越えている。
さまざまなアプリケーション領域から多種多様な非ホモフィル性データセットを導入します。
既存のスケーラブルなグラフ学習とグラフ最小化技術がパフォーマンスの低下につながることを示す。
- 参考スコア(独自算出の注目度): 16.170826632437183
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many widely used datasets for graph machine learning tasks have generally
been homophilous, where nodes with similar labels connect to each other.
Recently, new Graph Neural Networks (GNNs) have been developed that move beyond
the homophily regime; however, their evaluation has often been conducted on
small graphs with limited application domains. We collect and introduce diverse
non-homophilous datasets from a variety of application areas that have up to
384x more nodes and 1398x more edges than prior datasets. We further show that
existing scalable graph learning and graph minibatching techniques lead to
performance degradation on these non-homophilous datasets, thus highlighting
the need for further work on scalable non-homophilous methods. To address these
concerns, we introduce LINKX -- a strong simple method that admits
straightforward minibatch training and inference. Extensive experimental
results with representative simple methods and GNNs across our proposed
datasets show that LINKX achieves state-of-the-art performance for learning on
non-homophilous graphs. Our codes and data are available at
https://github.com/CUAI/Non-Homophily-Large-Scale.
- Abstract(参考訳): グラフ機械学習タスクで広く使われているデータセットの多くは、類似のラベルを持つノードが相互に接続するホモフィアである。
近年,ホモフィリー構造を超えた新しいグラフニューラルネットワーク(gnns)が開発されているが,アプリケーション領域が限定された小さなグラフでは評価がしばしば行われている。
我々は、最大384倍のノードと1398倍のエッジを持つさまざまなアプリケーション領域から、多様な非ホモフィル性データセットを収集し、導入する。
さらに,既存のスケーラブルなグラフ学習とグラフミニバッチ技術が,これら非ホモフィラスなデータセットのパフォーマンス低下を招き,スケーラブルで非ホモフィラスな方法のさらなる開発の必要性を浮き彫りにした。
これらの問題に対処するため、LINKXを導入します。これは、単純なミニバッチトレーニングと推論を許容する強力なシンプルなメソッドです。
提案するデータセットに代表される単純な手法とgnnを用いた広範な実験結果から,linkxは非ホモフィラスグラフを用いた学習において最先端のパフォーマンスを達成していることが示された。
私たちのコードとデータはhttps://github.com/CUAI/Non-Homophily-Large-Scaleで公開されています。
関連論文リスト
- Non-Homophilic Graph Pre-Training and Prompt Learning [11.996173149569627]
本稿では,好ましくないグラフに対する事前学習と迅速な学習の枠組みであるProNoGを提案する。
まず、既存のグラフ事前学習手法を分析し、事前学習タスクの選択に関する理論的知見を提供する。
第2に,各ノードが特異な非ホモフィル性を示すことを認識し,下流タスクにおけるノード固有のパターンを特徴付ける条件付きネットワークを提案する。
論文 参考訳(メタデータ) (2024-08-22T17:57:31Z) - The Heterophilic Graph Learning Handbook: Benchmarks, Models, Theoretical Analysis, Applications and Challenges [101.83124435649358]
ホモフィリ原理では、同じラベルや類似属性を持つieノードが接続される可能性が高い。
最近の研究で、GNNのパフォーマンスとNNのパフォーマンスが満足できない非自明なデータセットが特定されている。
論文 参考訳(メタデータ) (2024-07-12T18:04:32Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - A Simple and Scalable Graph Neural Network for Large Directed Graphs [11.792826520370774]
入力グラフ内のノード表現とエッジ方向認識の様々な組み合わせについて検討する。
そこで本研究では,A2DUGを簡易かつ包括的に分類する手法を提案する。
我々は、A2DUGが様々なデータセットで安定して動作し、最先端の手法と比較して11.29まで精度が向上することを示した。
論文 参考訳(メタデータ) (2023-06-14T06:24:58Z) - GCNH: A Simple Method For Representation Learning On Heterophilous
Graphs [4.051099980410583]
グラフニューラルネットワーク(GNN)は、ホモフィルグラフの学習に適している。
近年,異種グラフの性能向上を目的とした標準GNNアーキテクチャの拡張が提案されている。
ヘテロフィリィ(GCNH)のためのGCNを提案し,ヘテロフィリィシナリオとホモフィリィシナリオの両方に適用できる簡易かつ効果的なGNNアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-04-21T11:26:24Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Node Feature Extraction by Self-Supervised Multi-scale Neighborhood
Prediction [123.20238648121445]
我々は、新しい自己教師型学習フレームワーク、グラフ情報支援ノード機能exTraction (GIANT)を提案する。
GIANT は eXtreme Multi-label Classification (XMC) 形式を利用しており、これはグラフ情報に基づいた言語モデルの微調整に不可欠である。
我々は,Open Graph Benchmarkデータセット上での標準GNNパイプラインよりもGIANTの方が優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-29T19:55:12Z) - New Benchmarks for Learning on Non-Homophilous Graphs [20.082182515715182]
ホモフィリー原理を満たさないノードラベル関係を持つ改良されたグラフデータセットを多数提示する。
我々はまた、異なる体制における既存の措置よりも適しているホモフィリーの存在または不在の新しい尺度を紹介します。
論文 参考訳(メタデータ) (2021-04-03T13:45:06Z) - Scalable Graph Neural Networks for Heterogeneous Graphs [12.44278942365518]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学習するためのパラメトリックモデルの一般的なクラスである。
最近の研究は、GNNが主に機能をスムースにするためにグラフを使用しており、ベンチマークタスクで競合する結果を示していると主張している。
本研究では、これらの結果が異種グラフに拡張可能かどうかを問うとともに、異なるエンティティ間の複数のタイプの関係を符号化する。
論文 参考訳(メタデータ) (2020-11-19T06:03:35Z) - Combining Label Propagation and Simple Models Out-performs Graph Neural
Networks [52.121819834353865]
多くの標準的なトランスダクティブノード分類ベンチマークでは、最先端のGNNの性能を超えたり、一致させることができる。
これをC&S(Correct and Smooth)と呼ぶ。
我々のアプローチは、様々なベンチマークで最先端のGNNの性能を上回るか、ほぼ一致している。
論文 参考訳(メタデータ) (2020-10-27T02:10:52Z) - Graph Contrastive Learning with Augmentations [109.23158429991298]
グラフデータの教師なし表現を学習するためのグラフコントラスト学習(GraphCL)フレームワークを提案する。
我々のフレームワークは、最先端の手法と比較して、類似またはより良い一般化可能性、転送可能性、堅牢性のグラフ表現を作成できることを示す。
論文 参考訳(メタデータ) (2020-10-22T20:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。