論文の概要: gHAWK: Local and Global Structure Encoding for Scalable Training of Graph Neural Networks on Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2512.08274v1
- Date: Tue, 09 Dec 2025 06:08:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:07.830961
- Title: gHAWK: Local and Global Structure Encoding for Scalable Training of Graph Neural Networks on Knowledge Graphs
- Title(参考訳): gHAWK:知識グラフに基づくグラフニューラルネットワークのスケーラブルなトレーニングのためのローカルおよびグローバル構造符号化
- Authors: Humera Sabir, Fatima Farooq, Ashraf Aboulnaga,
- Abstract要約: gHAWKは知識グラフ(KG)のためのグラフニューラルネットワーク(GNN)トレーニングフレームワーク
GNNトレーニングが始まる前に、各ノードのローカルおよびグローバル構造をキャプチャする構造的特徴を事前に計算する。
gHAWKはメモリ使用量、収束率を大幅に削減し、モデルの精度を向上させる。
- 参考スコア(独自算出の注目度): 1.8024397171920878
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Knowledge Graphs (KGs) are a rich source of structured, heterogeneous data, powering a wide range of applications. A common approach to leverage this data is to train a graph neural network (GNN) on the KG. However, existing message-passing GNNs struggle to scale to large KGs because they rely on the iterative message passing process to learn the graph structure, which is inefficient, especially under mini-batch training, where a node sees only a partial view of its neighborhood. In this paper, we address this problem and present gHAWK, a novel and scalable GNN training framework for large KGs. The key idea is to precompute structural features for each node that capture its local and global structure before GNN training even begins. Specifically, gHAWK introduces a preprocessing step that computes: (a)~Bloom filters to compactly encode local neighborhood structure, and (b)~TransE embeddings to represent each node's global position in the graph. These features are then fused with any domain-specific features (e.g., text embeddings), producing a node feature vector that can be incorporated into any GNN technique. By augmenting message-passing training with structural priors, gHAWK significantly reduces memory usage, accelerates convergence, and improves model accuracy. Extensive experiments on large datasets from the Open Graph Benchmark (OGB) demonstrate that gHAWK achieves state-of-the-art accuracy and lower training time on both node property prediction and link prediction tasks, topping the OGB leaderboard for three graphs.
- Abstract(参考訳): 知識グラフ(KG)は構造化された異種データのリッチなソースであり、幅広いアプリケーションに電力を供給する。
このデータを活用するための一般的なアプローチは、KG上でグラフニューラルネットワーク(GNN)をトレーニングすることだ。
しかし、既存のメッセージパッシングGNNは、グラフ構造を学ぶために反復的なメッセージパッシングプロセスに依存するため、大きなKGにスケールするのに苦労している。
本稿では,この問題に対処し,大規模KGのための新規かつスケーラブルなGNNトレーニングフレームワークであるgHAWKを紹介する。
キーとなるアイデアは、GNNトレーニングが始まる前に、各ノードのローカルおよびグローバル構造をキャプチャする構造的特徴をプリ計算することだ。
具体的には、gHAWKは前処理のステップを導入している。
(a)~局所近傍構造をコンパクトに符号化するブルームフィルタ、及び
b)~TransE埋め込みはグラフ内の各ノードのグローバルな位置を表す。
これらの機能はドメイン固有の機能(例:テキスト埋め込み)と融合し、任意のGNNテクニックに組み込むことができるノード特徴ベクトルを生成する。
メッセージパストレーニングを構造的事前で強化することにより、gHAWKはメモリ使用量を大幅に削減し、収束を加速し、モデルの精度を向上させる。
Open Graph Benchmark (OGB)による大規模なデータセットに関する大規模な実験は、gHAWKがノードプロパティ予測とリンク予測タスクの両方で最先端の精度とトレーニング時間の短縮を実現し、3つのグラフでOGBリーダーボードをトッピングすることを示した。
関連論文リスト
- You do not have to train Graph Neural Networks at all on text-attributed graphs [25.044734252779975]
我々は、同じクラスからのテキストエンコーディングがしばしば線形部分空間に集約されるという観察に乗じて、線形GNNモデルであるTrainlessGNNを紹介した。
実験の結果、私たちのトレインレスモデルは、従来の訓練済みのモデルにマッチするか、超えられることがわかった。
論文 参考訳(メタデータ) (2024-04-17T02:52:11Z) - Graph Transformers for Large Graphs [57.19338459218758]
この研究は、モデルの特徴と重要な設計制約を識別することに焦点を当てた、単一の大規模グラフでの表現学習を前進させる。
この研究の重要な革新は、局所的な注意機構と組み合わされた高速な近傍サンプリング技術の作成である。
ogbn-products と snap-patents の3倍の高速化と16.8%の性能向上を報告し、ogbn-100M で LargeGT を5.9% の性能改善で拡張した。
論文 参考訳(メタデータ) (2023-12-18T11:19:23Z) - Graph Mixture of Experts: Learning on Large-Scale Graphs with Explicit
Diversity Modeling [60.0185734837814]
グラフニューラルネットワーク(GNN)は、グラフデータからの学習に広く応用されている。
GNNの一般化能力を強化するため、グラフ強化のような技術を用いて、トレーニンググラフ構造を増強することが慣例となっている。
本研究では,GNNにMixture-of-Experts(MoE)の概念を導入する。
論文 参考訳(メタデータ) (2023-04-06T01:09:36Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Structure Enhanced Graph Neural Networks for Link Prediction [6.872826041648584]
リンク予測のための構造拡張グラフニューラルネットワーク(SEG)を提案する。
SEGは、ターゲットノードの周囲の位相情報を通常のGNNモデルに組み込む。
OGBリンク予測データセットの実験は、SEGが最先端の結果を達成することを示す。
論文 参考訳(メタデータ) (2022-01-14T03:49:30Z) - DPGNN: Dual-Perception Graph Neural Network for Representation Learning [21.432960458513826]
グラフニューラルネットワーク(GNN)は近年注目を集め、グラフベースのタスクの多くで顕著なパフォーマンスを実現している。
既存のGNNの多くは、メッセージパッシングパラダイムに基づいて、1つのトポロジ空間内の近隣情報を反復的に集約している。
本稿では,マルチステップメッセージソースの特性,ノード固有のメッセージ出力,マルチスペースメッセージインタラクションに基づく新しいメッセージパッシングパラダイムを提案する。
論文 参考訳(メタデータ) (2021-10-15T05:47:26Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - Hierarchical Message-Passing Graph Neural Networks [12.207978823927386]
本稿では,新しい階層型メッセージパッシンググラフニューラルネットワークフレームワークを提案する。
鍵となるアイデアは、フラットグラフ内のすべてのノードをマルチレベルなスーパーグラフに再編成する階層構造を生成することである。
階層型コミュニティ対応グラフニューラルネットワーク(HC-GNN)と呼ばれる,このフレームワークを実装した最初のモデルを提案する。
論文 参考訳(メタデータ) (2020-09-08T13:11:07Z) - Graphs, Convolutions, and Neural Networks: From Graph Filters to Graph
Neural Networks [183.97265247061847]
我々はグラフ信号処理を活用してグラフニューラルネットワーク(GNN)の表現空間を特徴付ける。
GNNにおけるグラフ畳み込みフィルタの役割について議論し、そのようなフィルタで構築されたアーキテクチャは、置換同値の基本的な性質と位相変化に対する安定性を持つことを示す。
また,ロボット群に対するリコメンデータシステムや分散型コントローラの学習におけるGNNの利用について検討した。
論文 参考訳(メタデータ) (2020-03-08T13:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。