論文の概要: Graph Spring Neural ODEs for Link Sign Prediction
- arxiv url: http://arxiv.org/abs/2412.12916v2
- Date: Wed, 18 Dec 2024 10:16:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-19 13:25:27.231828
- Title: Graph Spring Neural ODEs for Link Sign Prediction
- Title(参考訳): リンクサイン予測のためのグラフスプリングニューラルODE
- Authors: Andrin Rehmann, Alexandre Bovet,
- Abstract要約: 本稿では,春の力によってモデル化されたグラフスプリングネットワーク(GSN)と呼ばれる新しいメッセージパッシング層アーキテクチャを提案する。
提案手法は,大規模グラフ上で最大28,000のノード生成時間高速化係数を持つ最先端手法に近い精度を実現する。
- 参考スコア(独自算出の注目度): 49.71046810937725
- License:
- Abstract: Signed graphs allow for encoding positive and negative relations between nodes and are used to model various online activities. Node representation learning for signed graphs is a well-studied task with important applications such as sign prediction. While the size of datasets is ever-increasing, recent methods often sacrifice scalability for accuracy. We propose a novel message-passing layer architecture called Graph Spring Network (GSN) modeled after spring forces. We combine it with a Graph Neural Ordinary Differential Equations (ODEs) formalism to optimize the system dynamics in embedding space to solve a downstream prediction task. Once the dynamics is learned, embedding generation for novel datasets is done by solving the ODEs in time using a numerical integration scheme. Our GSN layer leverages the fast-to-compute edge vector directions and learnable scalar functions that only depend on nodes' distances in latent space to compute the nodes' positions. Conversely, Graph Convolution and Graph Attention Network layers rely on learnable vector functions that require the full positions of input nodes in latent space. We propose a specific implementation called Spring-Neural-Network (SPR-NN) using a set of small neural networks mimicking attracting and repulsing spring forces that we train for link sign prediction. Experiments show that our method achieves accuracy close to the state-of-the-art methods with node generation time speedup factors of up to 28,000 on large graphs.
- Abstract(参考訳): 符号付きグラフはノード間の正と負の関係を符号化することができ、様々なオンラインアクティビティをモデル化するのに使用される。
署名付きグラフのノード表現学習は、手話予測などの重要なアプリケーションでよく研究されているタスクである。
データセットのサイズは増え続けているが、最近の手法では、正確性のためにスケーラビリティを犠牲にしていることが多い。
本稿では,春の力によってモデル化されたグラフスプリングネットワーク(GSN)と呼ばれる新しいメッセージパッシング層アーキテクチャを提案する。
グラフニューラル正規微分方程式(ODE)形式と組み合わせて、埋め込み空間におけるシステムダイナミクスを最適化し、下流予測タスクを解決する。
力学が学習されると、数値積分スキームを用いてODEを時間内に解くことで、新しいデータセットの埋め込み生成を行う。
我々のGSN層は、高速で計算可能なエッジベクトル方向と学習可能なスカラー関数を利用する。
逆に、Graph ConvolutionとGraph Attention Networkレイヤは、潜在空間における入力ノードの完全な位置を必要とする学習可能なベクトル関数に依存している。
本稿では,リンクサイン予測のために訓練したスプリングフォースの誘引と反発を模倣する小さなニューラルネットワークを用いて,Spring-Neural-Network(SPR-NN)と呼ばれる特定の実装を提案する。
実験により,提案手法は大規模グラフ上で最大28,000のノード生成時間高速化係数を持つ最先端手法に近い精度を達成できた。
関連論文リスト
- Towards Dynamic Message Passing on Graphs [104.06474765596687]
グラフニューラルネットワーク(GNN)のための新しい動的メッセージパッシング機構を提案する。
グラフノードと学習可能な擬似ノードを、測定可能な空間関係を持つ共通空間に投影する。
ノードが空間内を移動すると、その進化する関係は動的メッセージパッシングプロセスのための柔軟な経路構築を促進する。
論文 参考訳(メタデータ) (2024-10-31T07:20:40Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Towards Real-Time Temporal Graph Learning [10.647431919265346]
本稿では、時間グラフ構築を行い、低次元ノード埋め込みを生成し、オンライン環境でニューラルネットワークモデルを訓練するエンドツーエンドグラフ学習パイプラインを提案する。
論文 参考訳(メタデータ) (2022-10-08T22:14:31Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Graph Neural Networks with Feature and Structure Aware Random Walk [7.143879014059894]
典型的な好適なグラフでは、エッジを指向する可能性があり、エッジをそのまま扱うか、あるいは単純に非指向にするかは、GNNモデルの性能に大きな影響を与える。
そこで我々は,グラフの方向性を適応的に学習するモデルを開発し,ノード間の長距離相関を生かした。
論文 参考訳(メタデータ) (2021-11-19T08:54:21Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - Node2Seq: Towards Trainable Convolutions in Graph Neural Networks [59.378148590027735]
今回提案するグラフネットワーク層であるNode2Seqは,隣接ノードの重みを明示的に調整可能なノード埋め込みを学習する。
対象ノードに対して,当手法は注意メカニズムを介して隣接ノードをソートし,さらに1D畳み込みニューラルネットワーク(CNN)を用いて情報集約のための明示的な重み付けを行う。
また, 特徴学習のための非局所的情報を, 注意スコアに基づいて適応的に組み込むことを提案する。
論文 参考訳(メタデータ) (2021-01-06T03:05:37Z) - Scalable Graph Neural Networks for Heterogeneous Graphs [12.44278942365518]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学習するためのパラメトリックモデルの一般的なクラスである。
最近の研究は、GNNが主に機能をスムースにするためにグラフを使用しており、ベンチマークタスクで競合する結果を示していると主張している。
本研究では、これらの結果が異種グラフに拡張可能かどうかを問うとともに、異なるエンティティ間の複数のタイプの関係を符号化する。
論文 参考訳(メタデータ) (2020-11-19T06:03:35Z) - Isometric Graph Neural Networks [5.306334746787569]
我々はIsometric Graph Neural Networks (IGNN) の学習手法を提案する。
IGNNは、任意のGNNアルゴリズムがノード間の距離を反映した表現を生成するために、入力表現空間と損失関数を変更する必要がある。
我々はケンドールのタウ(KT)の400%まで、一貫した実質的な改善を観察する。
論文 参考訳(メタデータ) (2020-06-16T22:51:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。