論文の概要: BG-HGNN: Toward Scalable and Efficient Heterogeneous Graph Neural
Network
- arxiv url: http://arxiv.org/abs/2403.08207v1
- Date: Wed, 13 Mar 2024 03:03:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 15:49:57.419032
- Title: BG-HGNN: Toward Scalable and Efficient Heterogeneous Graph Neural
Network
- Title(参考訳): BG-HGNN:スケーラブルで効率的な不均一グラフニューラルを目指して
ネットワーク
- Authors: Junwei Su, Lingjun Mao, Chuan Wu
- Abstract要約: 不均一グラフニューラルネットワーク(HGNN)は、異種グラフ用に設計された有望なニューラルモデルクラスである。
既存のHGNNは、様々な関係をモデル化するために異なるパラメータ空間を使用する。
本稿では,Blend&Grind-HGNNについて紹介する。
- 参考スコア(独自算出の注目度): 6.598758004828656
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many computer vision and machine learning problems are modelled as learning
tasks on heterogeneous graphs, featuring a wide array of relations from diverse
types of nodes and edges. Heterogeneous graph neural networks (HGNNs) stand out
as a promising neural model class designed for heterogeneous graphs. Built on
traditional GNNs, existing HGNNs employ different parameter spaces to model the
varied relationships. However, the practical effectiveness of existing HGNNs is
often limited to simple heterogeneous graphs with few relation types. This
paper first highlights and demonstrates that the standard approach employed by
existing HGNNs inevitably leads to parameter explosion and relation collapse,
making HGNNs less effective or impractical for complex heterogeneous graphs
with numerous relation types. To overcome this issue, we introduce a novel
framework, Blend&Grind-HGNN (BG-HGNN), which effectively tackles the challenges
by carefully integrating different relations into a unified feature space
manageable by a single set of parameters. This results in a refined HGNN method
that is more efficient and effective in learning from heterogeneous graphs,
especially when the number of relations grows. Our empirical studies illustrate
that BG-HGNN significantly surpasses existing HGNNs in terms of parameter
efficiency (up to 28.96 $\times$), training throughput (up to 8.12 $\times$),
and accuracy (up to 1.07 $\times$).
- Abstract(参考訳): 多くのコンピュータビジョンと機械学習の問題は、異種グラフ上の学習タスクとしてモデル化され、様々な種類のノードとエッジの関係が特徴である。
不均一グラフニューラルネットワーク(HGNN)は、異種グラフ用に設計された有望なニューラルモデルクラスである。
従来のGNNに基づいて構築された既存のHGNNは、様々な関係をモデル化するために異なるパラメータ空間を使用する。
しかし、既存のHGNNの実践的有効性は、関係型がほとんどない単純な異種グラフに限られることが多い。
本稿では,既存のHGNNが採用している標準手法が必然的にパラメータの爆発と関係の崩壊を招き,HGNNが多くの関係型を持つ複素異種グラフに対してより効果的あるいは実用的でないことを示す。
この問題を解決するために,Blend&Grind-HGNN (BG-HGNN) という新しいフレームワークを導入する。
これにより、不均一グラフから、特に関係の数が増加すると、より効率的で効果的に学習できる改良されたHGNN法が実現される。
我々の実証研究は、BG-HGNNがパラメータ効率(最大28.96$\times$)、トレーニングスループット(最大8.12$\times$)、精度(最大1.07$\times$)で既存のHGNNを大幅に上回っていることを示している。
関連論文リスト
- First-order PDES for Graph Neural Networks: Advection And Burgers Equation Models [1.4174475093445238]
本稿では,2つの一階偏微分方程式(PDE)を組み込んだ新しいグラフニューラルネットワークモデルを提案する。
実験結果から,高次PDEモデルと同等の結果を得るための新しいPDEモデルの能力を強調し,最大64層までのオーバースムーシング問題を修正した。
結果は,GNNの適応性と汎用性を強調し,従来の手法と同等の結果が得られることを示す。
論文 参考訳(メタデータ) (2024-04-03T21:47:02Z) - GCNH: A Simple Method For Representation Learning On Heterophilous
Graphs [4.051099980410583]
グラフニューラルネットワーク(GNN)は、ホモフィルグラフの学習に適している。
近年,異種グラフの性能向上を目的とした標準GNNアーキテクチャの拡張が提案されている。
ヘテロフィリィ(GCNH)のためのGCNを提案し,ヘテロフィリィシナリオとホモフィリィシナリオの両方に適用できる簡易かつ効果的なGNNアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-04-21T11:26:24Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - EvenNet: Ignoring Odd-Hop Neighbors Improves Robustness of Graph Neural
Networks [51.42338058718487]
グラフニューラルネットワーク(GNN)は、グラフ機械学習における有望なパフォーマンスについて、広範な研究の注目を集めている。
GCNやGPRGNNのような既存のアプローチは、テストグラフ上のホモフィリな変化に直面しても堅牢ではない。
偶数多項式グラフフィルタに対応するスペクトルGNNであるEvenNetを提案する。
論文 参考訳(メタデータ) (2022-05-27T10:48:14Z) - Graph Neural Networks for Graphs with Heterophily: A Survey [98.45621222357397]
異種グラフに対するグラフニューラルネットワーク(GNN)の総合的なレビューを提供する。
具体的には,既存の異好性GNNモデルを本質的に支配する系統分類法を提案する。
グラフヘテロフィリーと様々なグラフ研究領域の相関を議論し、より効果的なGNNの開発を促進することを目的とした。
論文 参考訳(メタデータ) (2022-02-14T23:07:47Z) - MGNN: Graph Neural Networks Inspired by Distance Geometry Problem [28.789684784093048]
グラフニューラルネットワーク(GNN)は、機械学習分野における顕著な研究トピックとして現れている。
本稿では,GNNの分類段階における分類器の親近性に着想を得たGNNモデルを提案する。
合成および実世界の両方のデータセットを用いて実験を行い,本モデルの有効性を広範囲に評価した。
論文 参考訳(メタデータ) (2022-01-31T04:15:42Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Permutation-equivariant and Proximity-aware Graph Neural Networks with
Stochastic Message Passing [88.30867628592112]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
置換等価性と近接認識性は、GNNにとって非常に望ましい2つの重要な特性である。
既存のGNNは、主にメッセージパッシング機構に基づいており、同時に2つの特性を保存できないことを示す。
ノードの近さを保つため,既存のGNNをノード表現で拡張する。
論文 参考訳(メタデータ) (2020-09-05T16:46:56Z) - Heterogeneous Graph Transformer [49.675064816860505]
Webスケールの不均一グラフモデリングのための不均一グラフ変換器(HGT)アーキテクチャ
動的ヘテロジニアスグラフを扱うために、HGTに相対時間符号化手法を導入する。
Web スケールのグラフデータを扱うため,ヘテロジニアスなミニバッチグラフサンプリングアルゴリズム--HGSampling--を設計し,効率的かつスケーラブルなトレーニングを行う。
論文 参考訳(メタデータ) (2020-03-03T04:49:21Z) - Random Features Strengthen Graph Neural Networks [40.60905158071766]
グラフニューラルネットワーク(GNN)は、さまざまなグラフ学習タスクのための強力な機械学習モデルである。
本稿では,各ノードにランダムな特徴を加えるだけで,GNNが強力になることを示す。
本稿では, グラフ畳み込みネットワーク (GCN) やグラフ同型ネットワーク (GIN) など, 通常のGNNでは解けない様々な問題を, ランダムな特徴の追加によりGNNが解決できることを示す。
論文 参考訳(メタデータ) (2020-02-08T12:47:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。