論文の概要: EEGNN: Edge Enhanced Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2208.06322v1
- Date: Fri, 12 Aug 2022 15:24:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-15 12:59:09.179751
- Title: EEGNN: Edge Enhanced Graph Neural Networks
- Title(参考訳): EEGNN:エッジ強化グラフニューラルネットワーク
- Authors: Yirui Liu, Xinghao Qiao, Liying Wang and Jessica Lam
- Abstract要約: そこで本研究では,このような劣化した性能現象の新たな説明法を提案する。
このような単純化は、グラフの構造情報を取得するためにメッセージパッシング層の可能性を減らすことができることを示す。
EEGNNは、提案したディリクレ混合ポアソングラフモデルから抽出した構造情報を用いて、様々なディープメッセージパスGNNの性能を向上させる。
- 参考スコア(独自算出の注目度): 1.0246596695310175
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Training deep graph neural networks (GNNs) poses a challenging task, as the
performance of GNNs may suffer from the number of hidden message-passing
layers. The literature has focused on the proposals of over-smoothing and
under-reaching to explain the performance deterioration of deep GNNs. In this
paper, we propose a new explanation for such deteriorated performance
phenomenon, mis-simplification, that is, mistakenly simplifying graphs by
preventing self-loops and forcing edges to be unweighted. We show that such
simplifying can reduce the potential of message-passing layers to capture the
structural information of graphs. In view of this, we propose a new framework,
edge enhanced graph neural network(EEGNN). EEGNN uses the structural
information extracted from the proposed Dirichlet mixture Poisson graph model,
a Bayesian nonparametric model for graphs, to improve the performance of
various deep message-passing GNNs. Experiments over different datasets show
that our method achieves considerable performance increase compared to
baselines.
- Abstract(参考訳): ディープグラフニューラルネットワーク(GNN)のトレーニングは、隠れたメッセージパッシングレイヤの数によってGNNのパフォーマンスが低下する可能性があるため、難しい課題となる。
本論文は, 深部GNNの性能劣化を説明するため, 過度なスムーシングとアンダーリーチングの提案に焦点を当てている。
本稿では, 自己ループを防止し, エッジの重み付けを強制することにより, グラフを誤って単純化するという, 性能低下現象に対する新たな説明を提案する。
このような単純化により、メッセージパッシング層がグラフの構造情報をキャプチャする可能性を低減できることを示す。
これを踏まえ,エッジ強化グラフニューラルネットワーク(eegnn)という新しいフレームワークを提案する。
EEGNNは、グラフのベイズ非パラメトリックモデルであるディリクレ混合ポアソングラフモデルから抽出した構造情報を用いて、様々なディープメッセージパスGNNの性能を向上させる。
異なるデータセットに対する実験により,本手法はベースラインに比べてかなりの性能向上を達成できた。
関連論文リスト
- On Vanishing Gradients, Over-Smoothing, and Over-Squashing in GNNs: Bridging Recurrent and Graph Learning [15.409865070022951]
グラフニューラルネットワーク(GNN)は、グラフ構造を利用してノード間で情報を伝達するモデルである。
GNNの単純な状態空間の定式化は、余分な訓練可能なパラメータコストを伴わずに、過度な平滑化と過度なスキャッシングを効果的に軽減できることを示す。
論文 参考訳(メタデータ) (2025-02-15T14:43:41Z) - Self-supervised Subgraph Neural Network With Deep Reinforcement Walk Exploration [13.489730726871421]
グラフデータは、化合物、タンパク質構造、ソーシャルネットワークのような複雑な現実世界の現象を表す。
従来のグラフニューラルネットワーク(GNN)は、主にメッセージパッシング機構を使用しているが、その表現力は限られており、その予測には説明性がない。
サブグラフニューラルネットワーク(SGNN)とGNN説明器が潜在的な解決策として登場したが、それぞれに制限がある。
我々は、SGNNとGNN説明器の生成アプローチを統合する新しいフレームワークを提案し、Reinforcement Walk Exploration SGNN (RWE-SGNN) と名付けた。
論文 参考訳(メタデータ) (2025-02-03T20:40:33Z) - Revisiting Graph Neural Networks on Graph-level Tasks: Comprehensive Experiments, Analysis, and Improvements [54.006506479865344]
グラフレベルグラフニューラルネットワーク(GNN)のための統一評価フレームワークを提案する。
このフレームワークは、さまざまなデータセットにわたるGNNを評価するための標準化された設定を提供する。
また,表現性の向上と一般化機能を備えた新しいGNNモデルを提案する。
論文 参考訳(メタデータ) (2025-01-01T08:48:53Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Towards Training GNNs using Explanation Directed Message Passing [4.014524824655107]
我々は、GNNのための新しい説明指向ニューラルメッセージパッシングフレームワークEXPASS(EXplainable message PASSing)を紹介する。
ディリクレエネルギーの層損失を緩やかにすることで,EXPASSはGNNの過度なスムース化問題を緩和することを示した。
実験の結果,EXPASSを用いて学習したグラフ埋め込みにより予測性能が向上し,GNNの過度な問題を軽減することがわかった。
論文 参考訳(メタデータ) (2022-11-30T04:31:26Z) - Gradient Gating for Deep Multi-Rate Learning on Graphs [62.25886489571097]
グラフニューラルネットワーク(GNN)の性能向上のための新しいフレームワークであるグラディエントゲーティング(G$2$)を提案する。
我々のフレームワークは,GNN層の出力を,基盤となるグラフのノード間でのメッセージパッシング情報のマルチレートフローのメカニズムでゲーティングすることに基づいている。
論文 参考訳(メタデータ) (2022-10-02T13:19:48Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - Training Robust Graph Neural Networks with Topology Adaptive Edge
Dropping [116.26579152942162]
グラフニューラルネットワーク(GNN)は、グラフ構造情報を利用してネットワークデータから表現をモデル化する処理アーキテクチャである。
彼らの成功にもかかわらず、GNNは限られた訓練データから得られる準最適一般化性能に悩まされている。
本稿では、一般化性能を改善し、堅牢なGNNモデルを学習するためのトポロジ適応エッジドロップ法を提案する。
論文 参考訳(メタデータ) (2021-06-05T13:20:36Z) - Learning to Drop: Robust Graph Neural Network via Topological Denoising [50.81722989898142]
グラフニューラルネットワーク(GNN)のロバスト性および一般化性能を向上させるために,パラメータ化トポロジカルデノイングネットワークであるPTDNetを提案する。
PTDNetは、パラメータ化されたネットワークでスパーシファイドグラフ内のエッジ数をペナル化することで、タスク非関連エッジを創出する。
PTDNetはGNNの性能を著しく向上させ,さらにノイズの多いデータセットでは性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-13T18:53:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。