論文の概要: Understanding and Improving Deep Graph Neural Networks: A Probabilistic
Graphical Model Perspective
- arxiv url: http://arxiv.org/abs/2301.10536v1
- Date: Wed, 25 Jan 2023 12:02:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-26 15:19:33.509962
- Title: Understanding and Improving Deep Graph Neural Networks: A Probabilistic
Graphical Model Perspective
- Title(参考訳): ディープグラフニューラルネットワークの理解と改善:確率的グラフィカルモデルの観点から
- Authors: Jiayuan Chen, Xiang Zhang, Yinfei Xu, Tianli Zhao, Renjie Xie and Wei
Xu
- Abstract要約: グラフニューラルネットワーク(GNN)の理解のための新しい視点を提案する。
本研究では,深いGNNに着目し,その理解のための新しい視点を提案する。
我々はより強力なGNN:結合グラフニューラルネットワーク(CoGNet)を設計する。
- 参考スコア(独自算出の注目度): 22.82625446308785
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, graph-based models designed for downstream tasks have significantly
advanced research on graph neural networks (GNNs). GNN baselines based on
neural message-passing mechanisms such as GCN and GAT perform worse as the
network deepens. Therefore, numerous GNN variants have been proposed to tackle
this performance degradation problem, including many deep GNNs. However, a
unified framework is still lacking to connect these existing models and
interpret their effectiveness at a high level. In this work, we focus on deep
GNNs and propose a novel view for understanding them. We establish a
theoretical framework via inference on a probabilistic graphical model. Given
the fixed point equation (FPE) derived from the variational inference on the
Markov random fields, the deep GNNs, including JKNet, GCNII, DGCN, and the
classical GNNs, such as GCN, GAT, and APPNP, can be regarded as different
approximations of the FPE. Moreover, given this framework, more accurate
approximations of FPE are brought, guiding us to design a more powerful GNN:
coupling graph neural network (CoGNet). Extensive experiments are carried out
on citation networks and natural language processing downstream tasks. The
results demonstrate that the CoGNet outperforms the SOTA models.
- Abstract(参考訳): 近年,下流タスク用に設計されたグラフベースモデルでは,グラフニューラルネットワーク(GNN)が大幅に進歩している。
GCNやGATといったニューラルメッセージパッシング機構に基づくGNNのベースラインは、ネットワークが深まるにつれて悪化する。
したがって、多くの深いGNNを含む多くのGNN変種がこの性能劣化問題に取り組むために提案されている。
しかし、これらの既存のモデルを接続し、それらの効果を高いレベルで解釈する統一されたフレームワークはまだ欠けている。
本研究では,深いGNNに着目し,その理解のための新しい視点を提案する。
確率的グラフィカルモデル上で推論によって理論的枠組みを確立する。
マルコフ確率場上の変分推論から導かれる固定点方程式(FPE)を考えると、JKNet、GCNII、DGCN、およびGCN、GAT、APPNPといった古典的なGNNを含む深いGNNは、FPEの異なる近似と見なすことができる。
さらに、このフレームワークを考えると、FPEのより正確な近似がもたらされ、より強力なGNNである結合グラフニューラルネットワーク(CoGNet)を設計する上で役立ちます。
引用ネットワークと自然言語処理のダウンストリームタスクで広範な実験が行われている。
その結果,CoGNetはSOTAモデルよりも優れていた。
関連論文リスト
- PROXI: Challenging the GNNs for Link Prediction [3.8233569758620063]
本稿では,グラフと属性空間の両方におけるノードペアの近接情報を活用するPROXIを紹介する。
標準機械学習(ML)モデルは競争力があり、最先端のGNNモデルよりも優れています。
ProXIによる従来のGNNの拡張はリンク予測性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2024-10-02T17:57:38Z) - Attentional Graph Neural Networks for Robust Massive Network
Localization [20.416879207269446]
グラフニューラルネットワーク(GNN)は、機械学習における分類タスクの顕著なツールとして登場した。
本稿では,GNNとアテンション機構を統合し,ネットワークローカライゼーションという難解な非線形回帰問題に対処する。
我々はまず,厳密な非視線(NLOS)条件下でも例外的な精度を示すグラフ畳み込みネットワーク(GCN)に基づく新しいネットワークローカライゼーション手法を提案する。
論文 参考訳(メタデータ) (2023-11-28T15:05:13Z) - On Neural Networks as Infinite Tree-Structured Probabilistic Graphical Models [44.676210493587256]
本稿では,ニューラルネットワークに対応する無限木構造PGMを構築することにより,革新的な解を提案する。
我々の研究は、DNNが前方伝播中に、この代替のPGM構造において正確であるPGMの近似を実行することを明らかにした。
論文 参考訳(メタデータ) (2023-05-27T21:32:28Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - Towards Understanding Graph Neural Networks: An Algorithm Unrolling
Perspective [9.426760895586428]
本稿では,グラフ信号の復号化問題に対して,truncated Optimizationアルゴリズムに基づいて構築されたアンロールネットワークのクラスを紹介する。
GNNモデルのトレーニングプロセスは、低レベルのGSD問題による二段階最適化問題の解決と見なすことができる。
UGDGNNという表現モデル、すなわち、非線形勾配勾配GNNは、魅力的な理論的性質を継承する。
論文 参考訳(メタデータ) (2022-06-09T12:54:03Z) - EvenNet: Ignoring Odd-Hop Neighbors Improves Robustness of Graph Neural
Networks [51.42338058718487]
グラフニューラルネットワーク(GNN)は、グラフ機械学習における有望なパフォーマンスについて、広範な研究の注目を集めている。
GCNやGPRGNNのような既存のアプローチは、テストグラフ上のホモフィリな変化に直面しても堅牢ではない。
偶数多項式グラフフィルタに対応するスペクトルGNNであるEvenNetを提案する。
論文 参考訳(メタデータ) (2022-05-27T10:48:14Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Attentive Graph Neural Networks for Few-Shot Learning [74.01069516079379]
グラフニューラルネットワーク(GNN)は、数ショットの学習タスクを含む多くの困難なアプリケーションにおいて、優れたパフォーマンスを示している。
少数のサンプルからモデルを学習し、一般化する能力があるにもかかわらず、GNNは通常、モデルが深くなるにつれて、過度な過度な適合と過度なスムーシングに悩まされる。
本稿では,三重注意機構を組み込むことにより,これらの課題に対処するための新しい注意型GNNを提案する。
論文 参考訳(メタデータ) (2020-07-14T07:43:09Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。