論文の概要: Distinguishing Neighborhood Representations Through Reverse Process of GNNs for Heterophilic Graphs
- arxiv url: http://arxiv.org/abs/2403.10543v1
- Date: Mon, 11 Mar 2024 08:48:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 07:56:27.267889
- Title: Distinguishing Neighborhood Representations Through Reverse Process of GNNs for Heterophilic Graphs
- Title(参考訳): 好熱グラフにおけるGNNの逆過程による周辺表現の識別
- Authors: MoonJeong Park, Jaeseung Heo, Dongwoo Kim,
- Abstract要約: グラフニューラルネットワーク(GNN)は拡散過程に似ており、多くの層を積み重ねる際の学習表現の過度な平滑化につながる。
本稿では, 逆過程の設計原理をGNNの3つの変種に適用する。
逆処理によって予測性能が大幅に向上することを示す。
- 参考スコア(独自算出の注目度): 2.737276507021477
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Network (GNN) resembles the diffusion process, leading to the over-smoothing of learned representations when stacking many layers. Hence, the reverse process of message passing can sharpen the node representations by inverting the forward message propagation. The sharpened representations can help us to better distinguish neighboring nodes with different labels, such as in heterophilic graphs. In this work, we apply the design principle of the reverse process to the three variants of the GNNs. Through the experiments on heterophilic graph data, where adjacent nodes need to have different representations for successful classification, we show that the reverse process significantly improves the prediction performance in many cases. Additional analysis reveals that the reverse mechanism can mitigate the over-smoothing over hundreds of layers.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は拡散過程に似ており、多くの層を積み重ねる際の学習表現の過度な平滑化につながる。
したがって、メッセージパッシングの逆プロセスは、フォワードメッセージの伝搬を反転させることでノード表現を研ぐことができる。
シャープ化された表現は、異種グラフのような異なるラベルを持つ近隣ノードをよりよく区別するのに役立ちます。
本稿では, 逆過程の設計原理をGNNの3つの変種に適用する。
異種グラフデータに対する実験により, 隣接ノードは, 分類を成功させるために異なる表現を持つ必要があるため, 逆処理が多くの場合において予測性能を著しく向上することを示した。
さらなる分析により、逆のメカニズムが数百層にわたるオーバー・スムースを緩和できることが判明した。
関連論文リスト
- Degree-based stratification of nodes in Graph Neural Networks [66.17149106033126]
グラフニューラルネットワーク(GNN)アーキテクチャを変更して,各グループのノードに対して,重み行列を個別に学習する。
このシンプルな実装変更により、データセットとGNNメソッドのパフォーマンスが改善されているようだ。
論文 参考訳(メタデータ) (2023-12-16T14:09:23Z) - Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - Addressing Heterophily in Node Classification with Graph Echo State
Networks [11.52174067809364]
ノード分類のためのグラフエコー状態ネットワーク(GESN)を用いた異種グラフの課題に対処する。
GESNはグラフのための貯水池計算モデルであり、ノードの埋め込みは訓練されていないメッセージパッシング関数によって計算される。
実験の結果, 貯水池モデルでは, ほぼ完全に訓練された深層モデルに対して, より優れた精度あるいは同等の精度が得られることがわかった。
論文 参考訳(メタデータ) (2023-05-14T19:42:31Z) - Deep Graph Neural Networks via Flexible Subgraph Aggregation [50.034313206471694]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習し、近隣情報を集約することでノードの表現を学ぶ。
本稿では,サブグラフアグリゲーションの観点から,GNNの表現力を評価する。
サブグラフアグリゲーションの異なるホップをより柔軟に活用できるサンプリングベースノードレベル残余モジュール(SNR)を提案する。
論文 参考訳(メタデータ) (2023-05-09T12:03:42Z) - Heterophily-Aware Graph Attention Network [58.99478502486377]
グラフニューラルネットワーク(GNN)はグラフ表現学習において顕著な成功を収めている。
既存のヘテロフィル性GNNは、各エッジのヘテロフィリのモデリングを無視する傾向にあり、これはヘテロフィリ問題に取り組む上でも不可欠である。
本稿では,局所分布を基礎となるヘテロフィリーとして完全に探索し,活用することで,新たなヘテロフィア対応グラフ注意ネットワーク(HA-GAT)を提案する。
論文 参考訳(メタデータ) (2023-02-07T03:21:55Z) - Complete the Missing Half: Augmenting Aggregation Filtering with
Diversification for Graph Convolutional Neural Networks [46.14626839260314]
現在のグラフニューラルネットワーク(GNN)は、特定のデータセットで学習するすべてのGNNモデルに根ざした問題要因である可能性が示されている。
集約操作をそれらの双対、すなわち、ノードをより明確にし、アイデンティティを保存する多様化演算子で拡張する。
このような拡張は、アグリゲーションを2チャネルのフィルタリングプロセスに置き換え、理論上、ノード表現を豊かにするのに役立つ。
実験では,モデルの望ましい特性と,9ノード分類タスクのベースライン上での大幅な性能向上について検討した。
論文 参考訳(メタデータ) (2022-12-21T07:24:03Z) - Stable and Transferable Hyper-Graph Neural Networks [95.07035704188984]
グラフニューラルネットワーク(GNN)を用いたハイパーグラフでサポートする信号処理アーキテクチャを提案する。
スペクトル類似性により任意のグラフにまたがってGNNの安定性と転送可能性の誤差をバウンドするフレームワークを提供する。
論文 参考訳(メタデータ) (2022-11-11T23:44:20Z) - Uniting Heterogeneity, Inductiveness, and Efficiency for Graph
Representation Learning [68.97378785686723]
グラフニューラルネットワーク(GNN)は,グラフ上のノード表現学習の性能を大幅に向上させた。
GNNの過半数クラスは均質グラフのためにのみ設計されており、より有益な異種グラフに劣る適応性をもたらす。
本稿では,低次ノードと高次ノードの両方のエッジに付随するヘテロジニアスなノード特徴をパッケージ化する,新しい帰納的メタパスフリーメッセージパッシング方式を提案する。
論文 参考訳(メタデータ) (2021-04-04T23:31:39Z) - Complete the Missing Half: Augmenting Aggregation Filtering with
Diversification for Graph Convolutional Networks [46.14626839260314]
我々は、現在のグラフニューラルネットワーク(GNN)が、特定のデータセットで学習するすべてのGNNメソッドの根底にある問題である可能性を示している。
集約操作をそれらの双対、すなわち、ノードをより明確にし、アイデンティティを保存する多様化演算子で拡張する。
このような拡張は、アグリゲーションを2チャネルのフィルタリングプロセスに置き換え、理論上、ノード表現を豊かにするのに役立つ。
実験では,モデルの望ましい特性と,9ノード分類タスクのベースライン上での大幅な性能向上について検討した。
論文 参考訳(メタデータ) (2020-08-20T08:45:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。