論文の概要: PyTorch Geometric High Order: A Unified Library for High Order Graph
Neural Network
- arxiv url: http://arxiv.org/abs/2311.16670v1
- Date: Tue, 28 Nov 2023 10:34:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-29 18:41:53.645158
- Title: PyTorch Geometric High Order: A Unified Library for High Order Graph
Neural Network
- Title(参考訳): PyTorch Geometric High Order:高次グラフニューラルネットワークのための統一ライブラリ
- Authors: Xiyuan Wang, Muhan Zhang
- Abstract要約: PyTorch Geometric High Order (PyGHO)は、PyTorch (PyG)を拡張した高次グラフニューラルネットワーク(HOGNN)のためのライブラリである。
我々は、PyGHOの詳細な詳細を提示し、PyGHOで実装されたHOGNNと現実世界のタスクに関する公式実装を比較した。
- 参考スコア(独自算出の注目度): 32.537428858455
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce PyTorch Geometric High Order (PyGHO), a library for High Order
Graph Neural Networks (HOGNNs) that extends PyTorch Geometric (PyG). Unlike
ordinary Message Passing Neural Networks (MPNNs) that exchange messages between
nodes, HOGNNs, encompassing subgraph GNNs and k-WL GNNs, encode node tuples, a
method previously lacking a standardized framework and often requiring complex
coding. PyGHO's main objective is to provide an unified and user-friendly
interface for various HOGNNs. It accomplishes this through streamlined data
structures for node tuples, comprehensive data processing utilities, and a
flexible suite of operators for high-order GNN methodologies. In this work, we
present a detailed in-depth of PyGHO and compare HOGNNs implemented with PyGHO
with their official implementation on real-world tasks. PyGHO achieves up to
$50\%$ acceleration and reduces the code needed for implementation by an order
of magnitude. Our library is available at
\url{https://github.com/GraphPKU/PygHO}.
- Abstract(参考訳): PyTorch Geometric High Order (PyGHO)は、PyTorch Geometric (PyG)を拡張した高次グラフニューラルネットワーク(HOGNN)のためのライブラリである。
ノード間でメッセージを交換する通常のメッセージパッシングニューラルネットワーク(MPNN)とは異なり、HOGNNはサブグラフGNNとk-WL GNNを包含し、ノードタプルをエンコードする。
PyGHOの主な目的は、様々なHOGNNに対して統一的でユーザフレンドリーなインターフェースを提供することである。
これはノードタプルのための合理化されたデータ構造、包括的なデータ処理ユーティリティ、高次GNN方法論のための柔軟な演算子スイートによって実現される。
本稿では,PyGHOの詳細について述べるとともに,PyGHOで実装されたHOGNNと実世界のタスクに関する公式実装との比較を行う。
PyGHOは最大50\%の加速を実現し、実装に必要なコードを桁違いに削減する。
私たちのライブラリは \url{https://github.com/GraphPKU/PygHO} で利用可能です。
関連論文リスト
- Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - Higher-order Sparse Convolutions in Graph Neural Networks [17.647346486710514]
グラフ信号のソボレフノルムに基づく新しい高次スパース畳み込みを導入する。
S-SobGNNは、最先端のいくつかの手法と比較して、全てのアプリケーションで競合性能を示す。
論文 参考訳(メタデータ) (2023-02-21T08:08:18Z) - Search to Capture Long-range Dependency with Stacking GNNs for Graph
Classification [41.84399177525008]
浅いGNNは、より深いGNNに直面しているよく知られたオーバースムースな問題のため、より一般的である。
LRGNN(Long-Range Graph Neural Networks)と呼ばれるニューラルアーキテクチャサーチ(NAS)による新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-02-17T03:40:17Z) - NDGGNET-A Node Independent Gate based Graph Neural Networks [6.155450481110693]
疎結合なノードでは、単一のGNN層を通して十分な情報を得るのは難しい。
この論文では、通常のGNNモデルでより多くのレイヤに対応可能な新しいフレームワークを定義する。
実験結果から,提案モデルがモデル深度を効果的に向上し,複数のデータセットで良好に動作できることが示唆された。
論文 参考訳(メタデータ) (2022-05-11T08:51:04Z) - PyTorch Geometric Signed Directed: A Software Package on Graph Neural
Networks for Signed and Directed Graphs [20.832917829426098]
PyGSD (PyTorch Geometric Signed Directed) は、PyGSDのソフトウェアパッケージである。
PyGSDは、使い易いGNNモデル、合成および実世界のデータ、タスク固有の評価指標と損失関数で構成されている。
PyGの拡張ライブラリとして提案されているソフトウェアは、オープンソースリリース、詳細なドキュメント、継続的インテグレーション、ユニットテスト、コードカバレッジチェックでメンテナンスされています。
論文 参考訳(メタデータ) (2022-02-22T10:25:59Z) - Neighbor2Seq: Deep Learning on Massive Graphs by Transforming Neighbors
to Sequences [55.329402218608365]
本研究では,各ノードの階層的近傍をシーケンスに変換するためにNeighbor2Seqを提案する。
1100万以上のノードと160億のエッジを持つ大規模グラフ上で,本手法の評価を行った。
その結果,提案手法は大規模グラフに対してスケーラブルであり,大規模グラフと中規模グラフにまたがる優れた性能を実現する。
論文 参考訳(メタデータ) (2022-02-07T16:38:36Z) - VQ-GNN: A Universal Framework to Scale up Graph Neural Networks using
Vector Quantization [70.8567058758375]
VQ-GNNは、Vector Quantization(VQ)を使用して、パフォーマンスを損なうことなく、畳み込みベースのGNNをスケールアップするための普遍的なフレームワークである。
我々のフレームワークは,グラフ畳み込み行列の低ランク版と組み合わせた量子化表現を用いて,GNNの「隣の爆発」問題を回避する。
論文 参考訳(メタデータ) (2021-10-27T11:48:50Z) - Training Graph Neural Networks with 1000 Layers [133.84813995275988]
我々は、GNNのメモリとパラメータ効率を向上させるために、可逆接続、グループ畳み込み、重み付け、平衡モデルについて検討する。
我々の知る限りでは、RevGNN-Deepは文学で最も深いGNNである。
論文 参考訳(メタデータ) (2021-06-14T15:03:00Z) - Rethinking Graph Neural Network Search from Message-passing [120.62373472087651]
本稿では,新しい検索空間を設計したグラフニューラルアーキテクチャサーチ(GNAS)を提案する。
グラフニューラルアーキテクチャパラダイム(GAP:Graph Neural Architecture Paradigm)をツリートポロジー計算手順と2種類の微粒原子操作で設計します。
実験では、GNASは複数のメッセージ通過機構と最適なメッセージ通過深さを持つより良いGNNを探索できることを示しています。
論文 参考訳(メタデータ) (2021-03-26T06:10:41Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - Graph Sequential Network for Reasoning over Sequences [38.766982479196926]
シーケンスから構築されたグラフよりも推論が必要な場合を考える。
既存のGNNモデルは、まずノード列を固定次元ベクトルに要約し、次にこれらのベクトルにGNNを適用することで、この目標を達成する。
本稿では,グラフシーケンスネットワーク(GSN)と呼ばれる新しいタイプのGNNを提案する。
論文 参考訳(メタデータ) (2020-04-04T19:18:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。