論文の概要: Personalized PageRank Graph Attention Networks
- arxiv url: http://arxiv.org/abs/2205.14259v1
- Date: Fri, 27 May 2022 22:36:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 16:59:20.689896
- Title: Personalized PageRank Graph Attention Networks
- Title(参考訳): パーソナライズされたページランクグラフアテンションネットワーク
- Authors: Julie Choi
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習するフレームワークである。
GNNは通常、過剰なスムーシングを避けるために、各ノードの非常に限られた近傍の情報のみを使用する。
本研究では,パーソナライズされたPPR(Personalized PageRank)の限界分布をグラフ注意ネットワーク(GAT)に組み込んで,過度な平滑化を伴わずに近隣の大規模情報を反映する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There has been a rising interest in graph neural networks (GNNs) for
representation learning over the past few years. GNNs provide a general and
efficient framework to learn from graph-structured data. However, GNNs
typically only use the information of a very limited neighborhood for each node
to avoid over-smoothing. A larger neighborhood would be desirable to provide
the model with more information. In this work, we incorporate the limit
distribution of Personalized PageRank (PPR) into graph attention networks
(GATs) to reflect the larger neighbor information without introducing
over-smoothing. Intuitively, message aggregation based on Personalized PageRank
corresponds to infinitely many neighborhood aggregation layers. We show that
our models outperform a variety of baseline models for four widely used
benchmark datasets. Our implementation is publicly available online.
- Abstract(参考訳): 過去数年間、表現学習に対するグラフニューラルネットワーク(GNN)への関心が高まっている。
GNNはグラフ構造化データから学ぶための汎用的で効率的なフレームワークを提供する。
しかし、GNNは通常、過剰なスムーシングを避けるために、各ノードの非常に限られた近傍の情報のみを使用する。
より多くの情報をモデルに提供するには、より大きな近所が望ましいだろう。
本研究では,グラフアテンションネットワーク (gats) にパーソナライズされたページランク (ppr) の限界分布を組み込むことにより,オーバースムーシングを導入することなく,より大きな隣接情報を反映する。
直感的には、パーソナライズされたPageRankに基づくメッセージアグリゲーションは、無限に多くの近傍アグリゲーション層に対応する。
我々のモデルは、広く使用されている4つのベンチマークデータセットにおいて、様々なベースラインモデルよりも優れていることを示す。
私たちの実装はオンラインで公開されています。
関連論文リスト
- Graph Ladling: Shockingly Simple Parallel GNN Training without
Intermediate Communication [100.51884192970499]
GNNは、グラフを学習するニューラルネットワークの強力なファミリーである。
GNNのスケーリングは、肥大化または拡大によって、不健康な勾配、過度なスムースメント、情報のスカッシングといった問題に悩まされる。
本稿では,現在のGNNの深層化や拡張ではなく,GNNに適したモデルスープをデータ中心の視点で表現することを提案する。
論文 参考訳(メタデータ) (2023-06-18T03:33:46Z) - Graph Mixture of Experts: Learning on Large-Scale Graphs with Explicit
Diversity Modeling [60.0185734837814]
グラフニューラルネットワーク(GNN)は、グラフデータからの学習に広く応用されている。
GNNの一般化能力を強化するため、グラフ強化のような技術を用いて、トレーニンググラフ構造を増強することが慣例となっている。
本研究では,GNNにMixture-of-Experts(MoE)の概念を導入する。
論文 参考訳(メタデータ) (2023-04-06T01:09:36Z) - Improving Graph Neural Networks at Scale: Combining Approximate PageRank
and CoreRank [20.948992161528466]
グラフニューラルネットワーク(GNN)の情報伝達のためのスケーラブルなソリューションを提案する。
CorePPRモデルは、およそパーソナライズされたPageRankとCoreRankの学習可能な凸の組み合わせを使用して、GNN内のマルチホップ近隣情報を拡散する。
CorePPRはPPRGoよりも大きなグラフで優れており、最も影響力のあるノードを選択することはスケーラビリティに特に関係している。
論文 参考訳(メタデータ) (2022-11-08T13:51:49Z) - Transforming PageRank into an Infinite-Depth Graph Neural Network [1.0965065178451106]
人気のあるグラフニューラルネットワークは、ディープラーニングの他のアプリケーション領域における非常に深いアーキテクチャの成功にもかかわらず、浅いモデルである。
パーソナライズされたPageRankがパーソナライズベクトルを考慮に入れたGNNとPageRankの密接な接続を構築した。
この考え方を採用したPPRGNN(Personalized PageRank Graph Neural Network)を提案する。
論文 参考訳(メタデータ) (2022-07-01T23:17:40Z) - A Robust Stacking Framework for Training Deep Graph Models with
Multifaceted Node Features [61.92791503017341]
数値ノード特徴とグラフ構造を入力とするグラフニューラルネットワーク(GNN)は,グラフデータを用いた各種教師付き学習タスクにおいて,優れた性能を示した。
IID(non-graph)データをGNNに簡単に組み込むことはできない。
本稿では、グラフ認識の伝播をIDデータに意図した任意のモデルで融合するロバストな積み重ねフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-16T22:46:33Z) - Deep Ensembles for Graphs with Higher-order Dependencies [13.164412455321907]
グラフニューラルネットワーク(GNN)は多くのグラフ学習タスクで最先端のパフォーマンスを継続する。
従来のグラフ表現が各ノードの近傍に不適合な傾向は,既存のGNNの一般化に悪影響を及ぼすことを示す。
本稿では,同一ノードの異なる近傍部分空間上でGNNのアンサンブルを訓練することにより,近傍のばらつきを捉える新しいディープグラフアンサンブル(DGE)を提案する。
論文 参考訳(メタデータ) (2022-05-27T14:01:08Z) - IV-GNN : Interval Valued Data Handling Using Graph Neural Network [12.651341660194534]
Graph Neural Network(GNN)は、グラフ上で標準的な機械学習を実行する強力なツールである。
本稿では,新しいGNNモデルであるInterval-ValuedGraph Neural Networkを提案する。
我々のモデルは、任意の可算集合は常に可算集合 $Rn$ の部分集合であるので、既存のモデルよりもはるかに一般である。
論文 参考訳(メタデータ) (2021-11-17T15:37:09Z) - Learning Graph Neural Networks with Positive and Unlabeled Nodes [34.903471348798725]
グラフニューラルネットワーク(GNN)は、グラフのノード分類など、トランスダクティブな学習タスクのための重要なツールです。
ほとんどのGNNモデルは、各ラウンドで短い距離から情報を集約し、グラフで長距離関係をキャプチャできません。
本論文では,これらの制限を克服するために,新しいグラフニューラルネットワークフレームワーク,LSDAN(Long-Short distance aggregation Network)を提案する。
論文 参考訳(メタデータ) (2021-03-08T11:43:37Z) - From Local Structures to Size Generalization in Graph Neural Networks [53.3202754533658]
グラフニューラルネットワーク(GNN)は、さまざまなサイズのグラフを処理することができる。
特に小さなグラフから大きなグラフまで、サイズをまたいで一般化する能力は、まだよく理解されていない。
論文 参考訳(メタデータ) (2020-10-17T19:36:54Z) - Scaling Graph Neural Networks with Approximate PageRank [64.92311737049054]
GNNにおける情報拡散の効率的な近似を利用したPPRGoモデルを提案する。
高速であることに加えて、PPRGoは本質的にスケーラブルであり、業界設定で見られるような大規模なデータセットに対して、自明に並列化することができる。
このグラフのすべてのノードに対するPPRGoのトレーニングとラベルの予測には1台のマシンで2分未満で、同じグラフ上の他のベースラインをはるかに上回ります。
論文 参考訳(メタデータ) (2020-07-03T09:30:07Z) - EdgeNets:Edge Varying Graph Neural Networks [179.99395949679547]
本稿では、EdgeNetの概念を通じて、最先端グラフニューラルネットワーク(GNN)を統一する一般的なフレームワークを提案する。
EdgeNetはGNNアーキテクチャであり、異なるノードが異なるパラメータを使って異なる隣人の情報を測定することができる。
これは、ノードが実行でき、既存のグラフ畳み込みニューラルネットワーク(GCNN)とグラフアテンションネットワーク(GAT)の1つの定式化の下で包含できる一般的な線形で局所的な操作である。
論文 参考訳(メタデータ) (2020-01-21T15:51:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。