論文の概要: RaWaNet: Enriching Graph Neural Network Input via Random Walks on Graphs
- arxiv url: http://arxiv.org/abs/2109.07555v1
- Date: Wed, 15 Sep 2021 20:04:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-18 08:19:53.224193
- Title: RaWaNet: Enriching Graph Neural Network Input via Random Walks on Graphs
- Title(参考訳): RaWaNet: グラフ上のランダムウォークによるグラフニューラルネットワーク入力の強化
- Authors: Anahita Iravanizad, Edgar Ivan Sanchez Medina, Martin Stoll
- Abstract要約: グラフニューラルネットワーク(GNN)の人気が高まっており、グラフで表されるデータに対して非常に有望な結果を示している。
本稿では,3つの選択された長さに基づいて,グラフのランダムなウォークデータ処理を提案する。すなわち,グラフ上の局所的および大域的ダイナミクスを捉えるために,長さ1,2の(正規)ウォークと長さ0,1$の分節ウォークを提案する。
本手法は, 処理ノードの特徴をネットワークに渡すことによって, 様々な分子データセット上で検証し, 分類および回帰処理を行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, graph neural networks (GNNs) have gained increasing
popularity and have shown very promising results for data that are represented
by graphs. The majority of GNN architectures are designed based on developing
new convolutional and/or pooling layers that better extract the hidden and
deeper representations of the graphs to be used for different prediction tasks.
The inputs to these layers are mainly the three default descriptors of a graph,
node features $(X)$, adjacency matrix $(A)$, and edge features $(W)$ (if
available). To provide a more enriched input to the network, we propose a
random walk data processing of the graphs based on three selected lengths.
Namely, (regular) walks of length 1 and 2, and a fractional walk of length
$\gamma \in (0,1)$, in order to capture the different local and global dynamics
on the graphs. We also calculate the stationary distribution of each random
walk, which is then used as a scaling factor for the initial node features
($X$). This way, for each graph, the network receives multiple adjacency
matrices along with their individual weighting for the node features. We test
our method on various molecular datasets by passing the processed node features
to the network in order to perform several classification and regression tasks.
Interestingly, our method, not using edge features which are heavily exploited
in molecular graph learning, let a shallow network outperform well known deep
GNNs.
- Abstract(参考訳): 近年、グラフニューラルネットワーク(GNN)の人気が高まっており、グラフで表されるデータに対して非常に有望な結果を示している。
GNNアーキテクチャの大部分は、異なる予測タスクに使用するグラフの隠れたより深い表現をよりよく抽出する、新しい畳み込み層やプール層の開発に基づいて設計されている。
これらのレイヤへの入力は、主にグラフの3つのデフォルト記述子、nodeは$(x)$、adjacency matrixは$(a)$、edgeは$(w)$(可能であれば)である。
ネットワークへのより豊かな入力を提供するため、3つの選択された長さに基づくグラフのランダムウォークデータ処理を提案する。
すなわち、(正規の)長さ 1 と 2 のウォークと長さ $\gamma \in (0,1)$ の分歩により、グラフ上の異なる局所的および大域的ダイナミクスを捉える。
また、各ランダムウォークの定常分布を計算し、最初のノード機能($x$)のスケーリング係数として使用する。
このように、各グラフに対して、ネットワークは複数の隣接行列を受信し、ノードの特徴に対する個々の重み付けを行う。
本手法は,処理ノードの特徴をネットワークに渡すことで,様々な分子データセット上でテストを行い,複数の分類と回帰タスクを行う。
興味深いことに、分子グラフ学習に大きく活用されているエッジ機能を使用しない手法は、浅いネットワークをよく知られた深いGNNよりも優れている。
関連論文リスト
- CliquePH: Higher-Order Information for Graph Neural Networks through Persistent Homology on Clique Graphs [15.044471983688249]
本稿では,グラフ内の高次構造に関する情報を抽出する新しい手法を提案する。
テスト精度は最大で31%向上する。
論文 参考訳(メタデータ) (2024-09-12T16:56:26Z) - Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - Path Integral Based Convolution and Pooling for Heterogeneous Graph
Neural Networks [2.5889737226898437]
グラフニューラルネットワーク(GNN)は、ディープラーニングをグラフ構造データセットに拡張する。
画像予測に使用する畳み込みニューラルネットワーク(CNN)と同様に、畳み込み層とプーリング層がグラフ予測タスクにおけるGNNの成功の基礎となっている。
論文 参考訳(メタデータ) (2023-02-26T20:05:23Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - Multi-Granularity Graph Pooling for Video-based Person Re-Identification [14.943835935921296]
ビデオサンプルの時間的特徴と空間的特徴を集約するためにグラフニューラルネットワーク(GNN)が導入された。
STGCNのような既存のグラフベースのモデルは、グラフ表現を得るためにノード機能でtextitmean/textitmaxプールを実行する。
ビデオ検索のための多粒度グラフ表現を学習するためのグラフプーリングネットワーク(GPNet)を提案する。
論文 参考訳(メタデータ) (2022-09-23T13:26:05Z) - Neighbor2Seq: Deep Learning on Massive Graphs by Transforming Neighbors
to Sequences [55.329402218608365]
本研究では,各ノードの階層的近傍をシーケンスに変換するためにNeighbor2Seqを提案する。
1100万以上のノードと160億のエッジを持つ大規模グラフ上で,本手法の評価を行った。
その結果,提案手法は大規模グラフに対してスケーラブルであり,大規模グラフと中規模グラフにまたがる優れた性能を実現する。
論文 参考訳(メタデータ) (2022-02-07T16:38:36Z) - Node Feature Extraction by Self-Supervised Multi-scale Neighborhood
Prediction [123.20238648121445]
我々は、新しい自己教師型学習フレームワーク、グラフ情報支援ノード機能exTraction (GIANT)を提案する。
GIANT は eXtreme Multi-label Classification (XMC) 形式を利用しており、これはグラフ情報に基づいた言語モデルの微調整に不可欠である。
我々は,Open Graph Benchmarkデータセット上での標準GNNパイプラインよりもGIANTの方が優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-29T19:55:12Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Scaling Graph Neural Networks with Approximate PageRank [64.92311737049054]
GNNにおける情報拡散の効率的な近似を利用したPPRGoモデルを提案する。
高速であることに加えて、PPRGoは本質的にスケーラブルであり、業界設定で見られるような大規模なデータセットに対して、自明に並列化することができる。
このグラフのすべてのノードに対するPPRGoのトレーニングとラベルの予測には1台のマシンで2分未満で、同じグラフ上の他のベースラインをはるかに上回ります。
論文 参考訳(メタデータ) (2020-07-03T09:30:07Z) - Hierarchical Representation Learning in Graph Neural Networks with Node Decimation Pooling [31.812988573924674]
グラフニューラルネットワーク(GNN)では、プール演算子は入力グラフの局所的な要約を計算し、そのグローバルな特性をキャプチャする。
グラフトポロジ全体を保存しながら粗いグラフを生成するGNNのためのプール演算子であるNode Decimation Pooling (NDP)を提案する。
NDPは、最先端のグラフプーリング演算子よりも効率的であり、同時に、様々なグラフ分類タスクにおける競合性能にも達する。
論文 参考訳(メタデータ) (2019-10-24T21:42:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。