論文の概要: Graph Neural Networks with Feature and Structure Aware Random Walk
- arxiv url: http://arxiv.org/abs/2111.10102v2
- Date: Mon, 28 Oct 2024 12:59:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-31 02:59:31.139959
- Title: Graph Neural Networks with Feature and Structure Aware Random Walk
- Title(参考訳): ランダムウォークを意識した特徴と構造を考慮したグラフニューラルネットワーク
- Authors: Wei Zhuo, Guang Tan,
- Abstract要約: 典型的な好適なグラフでは、エッジを指向する可能性があり、エッジをそのまま扱うか、あるいは単純に非指向にするかは、GNNモデルの性能に大きな影響を与える。
そこで我々は,グラフの方向性を適応的に学習するモデルを開発し,ノード間の長距離相関を生かした。
- 参考スコア(独自算出の注目度): 7.143879014059894
- License:
- Abstract: Graph Neural Networks (GNNs) have received increasing attention for representation learning in various machine learning tasks. However, most existing GNNs applying neighborhood aggregation usually perform poorly on the graph with heterophily where adjacent nodes belong to different classes. In this paper, we show that in typical heterphilous graphs, the edges may be directed, and whether to treat the edges as is or simply make them undirected greatly affects the performance of the GNN models. Furthermore, due to the limitation of heterophily, it is highly beneficial for the nodes to aggregate messages from similar nodes beyond local neighborhood.These motivate us to develop a model that adaptively learns the directionality of the graph, and exploits the underlying long-distance correlations between nodes. We first generalize the graph Laplacian to digraph based on the proposed Feature-Aware PageRank algorithm, which simultaneously considers the graph directionality and long-distance feature similarity between nodes. Then digraph Laplacian defines a graph propagation matrix that leads to a model called {\em DiglacianGCN}. Based on this, we further leverage the node proximity measured by commute times between nodes, in order to preserve the nodes' long-distance correlation on the topology level. Extensive experiments on ten datasets with different levels of homophily demonstrate the effectiveness of our method over existing solutions in the task of node classification.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、さまざまな機械学習タスクにおいて、表現学習に注目が集まっている。
しかし、ほとんどの既存のGNNは、隣り合うノードが異なるクラスに属するヘテロフィリーを持つグラフ上では、よく機能しない。
本稿では, 典型的な親水性グラフにおいて, エッジを指向する可能性があり, エッジを非指向的に扱うか, あるいは単に非指向的に扱うかが, GNNモデルの性能に大きく影響を与えることを示す。
さらに, ヘテロフィリーの限界により, 類似ノードからのメッセージを局所的近傍を越えて集約することが極めて有益であり, グラフの方向性を適応的に学習し, ノード間の長距離相関を利用するモデルの開発を動機づける。
まず,提案したFeature-Aware PageRankアルゴリズムに基づいてグラフラプラシアンをダイグラフに一般化する。
次に、グラフグラフラプラシアンはグラフ伝播行列を定義し、これは {\em DiglacianGCN} と呼ばれるモデルに導かれる。
これに基づいて、トポロジレベルにおけるノードの長距離相関を維持するために、ノード間の通勤時間によって測定されたノードの近接性をさらに活用する。
ノード分類のタスクにおける既存の解に対する手法の有効性を,相同性の異なる10種類のデータセットの大規模な実験により実証した。
関連論文リスト
- Improving Graph Neural Networks by Learning Continuous Edge Directions [0.0]
グラフニューラルネットワーク(GNN)は、従来、非指向グラフ上の拡散に似たメッセージパッシング機構を採用している。
私たちのキーとなる洞察は、ファジィエッジ方向をグラフのエッジに割り当てることです。
ファジィエッジを持つグラフを学習するためのフレームワークとして,Continuous Edge Direction (CoED) GNNを提案する。
論文 参考訳(メタデータ) (2024-10-18T01:34:35Z) - Spectral Greedy Coresets for Graph Neural Networks [61.24300262316091]
ノード分類タスクにおける大規模グラフの利用は、グラフニューラルネットワーク(GNN)の現実的な応用を妨げる
本稿では,GNNのグラフコアセットについて検討し,スペクトル埋め込みに基づくエゴグラフの選択により相互依存の問題を回避する。
我々のスペクトルグレディグラフコアセット(SGGC)は、数百万のノードを持つグラフにスケールし、モデル事前学習の必要性を排除し、低ホモフィリーグラフに適用する。
論文 参考訳(メタデータ) (2024-05-27T17:52:12Z) - GraphRARE: Reinforcement Learning Enhanced Graph Neural Network with Relative Entropy [21.553180564868306]
GraphRAREはノード相対エントロピーと深層強化学習に基づいて構築されたフレームワークである。
革新的なノード相対エントロピーは、ノードペア間の相互情報を測定するために使用される。
グラフトポロジを最適化するために,深層強化学習に基づくアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-12-15T11:30:18Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - Addressing Heterophily in Node Classification with Graph Echo State
Networks [11.52174067809364]
ノード分類のためのグラフエコー状態ネットワーク(GESN)を用いた異種グラフの課題に対処する。
GESNはグラフのための貯水池計算モデルであり、ノードの埋め込みは訓練されていないメッセージパッシング関数によって計算される。
実験の結果, 貯水池モデルでは, ほぼ完全に訓練された深層モデルに対して, より優れた精度あるいは同等の精度が得られることがわかった。
論文 参考訳(メタデータ) (2023-05-14T19:42:31Z) - Discovering the Representation Bottleneck of Graph Neural Networks from
Multi-order Interactions [51.597480162777074]
グラフニューラルネットワーク(GNN)は、ノード機能を伝搬し、インタラクションを構築するためにメッセージパッシングパラダイムに依存している。
最近の研究は、異なるグラフ学習タスクはノード間の異なる範囲の相互作用を必要とすることを指摘している。
科学領域における2つの共通グラフ構築法、すなわち、emphK-nearest neighbor(KNN)グラフとemphfully-connected(FC)グラフについて検討する。
論文 参考訳(メタデータ) (2022-05-15T11:38:14Z) - Incorporating Heterophily into Graph Neural Networks for Graph Classification [6.709862924279403]
グラフニューラルネットワーク(GNN)は、しばしばグラフ分類において強いホモフィリを仮定し、ヘテロフィリを考えることは滅多にない。
We developed a novel GNN architecture called IHGNN (short for Incorporated Heterophily into Graph Neural Networks)
我々は、様々なグラフデータセット上でIHGNNを実証的に検証し、グラフ分類のための最先端のGNNよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-03-15T06:48:35Z) - Explicit Pairwise Factorized Graph Neural Network for Semi-Supervised
Node Classification [59.06717774425588]
本稿では,グラフ全体を部分的に観測されたマルコフ確率場としてモデル化するEPFGNN(Explicit Pairwise Factorized Graph Neural Network)を提案する。
出力-出力関係をモデル化するための明示的なペアワイズ要素を含み、入力-出力関係をモデル化するためにGNNバックボーンを使用する。
本研究では,グラフ上での半教師付きノード分類の性能を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2021-07-27T19:47:53Z) - On Local Aggregation in Heterophilic Graphs [11.100606980915144]
我々は,従来のGNNと多層パーセプトロンを適切に調整した手法が,ヘテロ親和性グラフ上の最近の長距離アグリゲーション手法の精度に適合しているか,あるいは超越しているかを示す。
本稿では,新しい情報理論グラフ計量であるNativeborhood Information Content(NIC)メトリックを提案する。
論文 参考訳(メタデータ) (2021-06-06T19:12:31Z) - Bilinear Graph Neural Network with Neighbor Interactions [106.80781016591577]
グラフニューラルネットワーク(GNN)は,グラフデータ上で表現を学習し,予測を行う強力なモデルである。
本稿では,グラフ畳み込み演算子を提案し,隣接するノードの表現の対の相互作用で重み付け和を増大させる。
このフレームワークをBGNN(Bilinear Graph Neural Network)と呼び、隣ノード間の双方向相互作用によるGNN表現能力を向上させる。
論文 参考訳(メタデータ) (2020-02-10T06:43:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。