論文の概要: Inferential SIR-GN: Scalable Graph Representation Learning
- arxiv url: http://arxiv.org/abs/2111.04826v1
- Date: Mon, 8 Nov 2021 20:56:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-10 15:03:07.635887
- Title: Inferential SIR-GN: Scalable Graph Representation Learning
- Title(参考訳): 推論SIR-GN:スケーラブルグラフ表現学習
- Authors: Janet Layne and Edoardo Serra
- Abstract要約: グラフ表現学習法は、ネットワーク内のノードの数値ベクトル表現を生成する。
本研究では,ランダムグラフ上で事前学習されたモデルであるInferential SIR-GNを提案し,ノード表現を高速に計算する。
このモデルではノードの構造的役割情報を捉えることができ、ノードやグラフの分類タスクにおいて、目に見えないネットワーク上で優れた性能を示すことができる。
- 参考スコア(独自算出の注目度): 0.4699313647907615
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph representation learning methods generate numerical vector
representations for the nodes in a network, thereby enabling their use in
standard machine learning models. These methods aim to preserve relational
information, such that nodes that are similar in the graph are found close to
one another in the representation space. Similarity can be based largely on one
of two notions: connectivity or structural role. In tasks where node structural
role is important, connectivity based methods show poor performance. Recent
work has begun to focus on scalability of learning methods to massive graphs of
millions to billions of nodes and edges. Many unsupervised node representation
learning algorithms are incapable of scaling to large graphs, and are unable to
generate node representations for unseen nodes. In this work, we propose
Inferential SIR-GN, a model which is pre-trained on random graphs, then
computes node representations rapidly, including for very large networks. We
demonstrate that the model is able to capture node's structural role
information, and show excellent performance at node and graph classification
tasks, on unseen networks. Additionally, we observe the scalability of
Inferential SIR-GN is comparable to the fastest current approaches for massive
graphs.
- Abstract(参考訳): グラフ表現学習手法は、ネットワーク内のノードの数値ベクトル表現を生成し、標準機械学習モデルでの使用を可能にする。
これらの手法は、グラフで類似するノードが表現空間で互いに近くにあるような関係情報を保存することを目的としている。
類似性は主に接続性または構造的役割という2つの概念の1つに基づいている。
ノード構造の役割が重要であるタスクでは、接続ベースのメソッドは性能が劣る。
最近の研究は、数百万から数十億のノードとエッジの巨大なグラフへの学習方法のスケーラビリティにフォーカスし始めている。
多くの教師なしノード表現学習アルゴリズムは、大きなグラフへのスケーリングができず、見えないノードに対してノード表現を生成することができない。
本研究では,ランダムグラフ上で事前学習されたモデルであるInferential SIR-GNを提案し,ノード表現を高速に計算する。
提案手法は,ノードの構造的役割情報をキャプチャし,ノードとグラフの分類タスクにおいて,未知のネットワーク上で優れた性能を示すことを実証する。
さらに、Inferential SIR-GNのスケーラビリティは、大規模グラフに対する現在の最速のアプローチに匹敵する。
関連論文リスト
- Saliency-Aware Regularized Graph Neural Network [39.82009838086267]
グラフ分類のためのSAR-GNN(Saliency-Aware Regularized Graph Neural Network)を提案する。
まず,コンパクトなグラフ表現とノード特徴とのセマンティックな類似性を測定することで,グローバルノードの正当性を推定する。
そして、学習した塩分濃度分布を利用して、背骨の近傍集合を規則化する。
論文 参考訳(メタデータ) (2024-01-01T13:44:16Z) - GraphRARE: Reinforcement Learning Enhanced Graph Neural Network with Relative Entropy [21.553180564868306]
GraphRAREはノード相対エントロピーと深層強化学習に基づいて構築されたフレームワークである。
革新的なノード相対エントロピーは、ノードペア間の相互情報を測定するために使用される。
グラフトポロジを最適化するために,深層強化学習に基づくアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-12-15T11:30:18Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - Graph Neural Networks with Feature and Structure Aware Random Walk [7.143879014059894]
典型的な好適なグラフでは、エッジを指向する可能性があり、エッジをそのまま扱うか、あるいは単純に非指向にするかは、GNNモデルの性能に大きな影響を与える。
そこで我々は,グラフの方向性を適応的に学習するモデルを開発し,ノード間の長距離相関を生かした。
論文 参考訳(メタデータ) (2021-11-19T08:54:21Z) - Temporal Graph Network Embedding with Causal Anonymous Walks
Representations [54.05212871508062]
本稿では,時間グラフネットワークに基づく動的ネットワーク表現学習のための新しいアプローチを提案する。
評価のために、時間的ネットワーク埋め込みの評価のためのベンチマークパイプラインを提供する。
欧州の大手銀行が提供した実世界のダウンストリームグラフ機械学習タスクにおいて、我々のモデルの適用性と優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-19T15:39:52Z) - Node2Seq: Towards Trainable Convolutions in Graph Neural Networks [59.378148590027735]
今回提案するグラフネットワーク層であるNode2Seqは,隣接ノードの重みを明示的に調整可能なノード埋め込みを学習する。
対象ノードに対して,当手法は注意メカニズムを介して隣接ノードをソートし,さらに1D畳み込みニューラルネットワーク(CNN)を用いて情報集約のための明示的な重み付けを行う。
また, 特徴学習のための非局所的情報を, 注意スコアに基づいて適応的に組み込むことを提案する。
論文 参考訳(メタデータ) (2021-01-06T03:05:37Z) - Multi-grained Semantics-aware Graph Neural Networks [13.720544777078642]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力な技術である。
本研究では,ノードとグラフ表現を対話的に学習する統合モデルAdamGNNを提案する。
14の実世界のグラフデータセットに対する実験により、AdamGNNはノードとグラフの両方のタスクにおいて17の競合するモデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2020-10-01T07:52:06Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Graph Neural Networks with Composite Kernels [60.81504431653264]
カーネル重み付けの観点からノード集約を再解釈する。
本稿では,アグリゲーション方式における特徴類似性を考慮したフレームワークを提案する。
特徴空間における特徴類似性をエンコードするために,元の隣り合うカーネルと学習可能なカーネルの合成として特徴集約を提案する。
論文 参考訳(メタデータ) (2020-05-16T04:44:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。