論文の概要: Graph Partner Neural Networks for Semi-Supervised Learning on Graphs
- arxiv url: http://arxiv.org/abs/2110.09182v1
- Date: Mon, 18 Oct 2021 10:56:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 17:49:56.620300
- Title: Graph Partner Neural Networks for Semi-Supervised Learning on Graphs
- Title(参考訳): グラフ上の半教師付き学習のためのグラフパートナーニューラルネットワーク
- Authors: Langzhang Liang, Cuiyun Gao, Shiyi Chen, Shishi Duan, Yu pan, Junjin
Zheng, Lei Wang, Zenglin Xu
- Abstract要約: グラフ畳み込みネットワーク(GCN)は、グラフ構造化データを処理するのに強力であり、ノード分類、リンク予測、グラフ分類などのタスクで最先端のパフォーマンスを達成した。
グラフ畳み込み処理を繰り返した後にノードの表現が区別できない傾向にあるため、深いGCNが過度に滑らかな問題に悩まされることは避けられない。
本稿では,非パラメータ化GCNとパラメータ共有スキームを組み合わせたグラフパートナーニューラルネットワーク(GPNN)を提案する。
- 参考スコア(独自算出の注目度): 16.489177915147785
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Convolutional Networks (GCNs) are powerful for processing
graph-structured data and have achieved state-of-the-art performance in several
tasks such as node classification, link prediction, and graph classification.
However, it is inevitable for deep GCNs to suffer from an over-smoothing issue
that the representations of nodes will tend to be indistinguishable after
repeated graph convolution operations. To address this problem, we propose the
Graph Partner Neural Network (GPNN) which incorporates a de-parameterized GCN
and a parameter-sharing MLP. We provide empirical and theoretical evidence to
demonstrate the effectiveness of the proposed MLP partner on tackling
over-smoothing while benefiting from appropriate smoothness. To further tackle
over-smoothing and regulate the learning process, we introduce a well-designed
consistency contrastive loss and KL divergence loss. Besides, we present a
graph enhancement technique to improve the overall quality of edges in graphs.
While most GCNs can work with shallow architecture only, GPNN can obtain better
results through increasing model depth. Experiments on various node
classification tasks have demonstrated the state-of-the-art performance of
GPNN. Meanwhile, extensive ablation studies are conducted to investigate the
contributions of each component in tackling over-smoothing and improving
performance.
- Abstract(参考訳): グラフ畳み込みネットワーク(GCN)はグラフ構造化データを処理するのに強力であり、ノード分類、リンク予測、グラフ分類などのタスクで最先端のパフォーマンスを達成した。
しかし、深いGCNは、グラフの畳み込み操作を繰り返した後にノードの表現が区別できないという過度な問題に悩まされることは避けられない。
この問題に対処するために,パラメータ分割GCNとパラメータ共有MLPを組み合わせたグラフパートナーニューラルネットワーク(GPNN)を提案する。
提案するMLPパートナーが適切な滑らかさの恩恵を受けながら過度なスムース化に取り組む上での有効性を実証するための実証的および理論的証拠を提供する。
さらに,学習プロセスの過度な対応と制御のために,よく設計された一貫性の対比的損失とklの分岐損失を導入する。
さらに,グラフのエッジ全体の品質を向上させるためのグラフ拡張手法を提案する。
ほとんどのGCNは浅いアーキテクチャでのみ動作するが、GPNNはモデル深度を増大させることでより良い結果を得ることができる。
各種ノード分類タスクの実験により,GPNNの最先端性能が実証された。
また, オーバースムーシングへの取り組みと性能向上における各成分の寄与を検討するため, 広範なアブレーション研究を行った。
関連論文リスト
- Self-Attention Empowered Graph Convolutional Network for Structure
Learning and Node Embedding [5.164875580197953]
グラフ構造化データの表現学習では、多くの人気のあるグラフニューラルネットワーク(GNN)が長距離依存をキャプチャできない。
本稿では,自己注意型グラフ畳み込みネットワーク(GCN-SA)と呼ばれる新しいグラフ学習フレームワークを提案する。
提案手法はノードレベルの表現学習において例外的な一般化能力を示す。
論文 参考訳(メタデータ) (2024-03-06T05:00:31Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Gradient Gating for Deep Multi-Rate Learning on Graphs [62.25886489571097]
グラフニューラルネットワーク(GNN)の性能向上のための新しいフレームワークであるグラディエントゲーティング(G$2$)を提案する。
我々のフレームワークは,GNN層の出力を,基盤となるグラフのノード間でのメッセージパッシング情報のマルチレートフローのメカニズムでゲーティングすることに基づいている。
論文 参考訳(メタデータ) (2022-10-02T13:19:48Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - RawlsGCN: Towards Rawlsian Difference Principle on Graph Convolutional
Network [102.27090022283208]
グラフ畳み込みネットワーク(GCN)は多くの現実世界のアプリケーションにおいて重要な役割を担っている。
GCNはしばしばノードの次数に対する性能の相違を示し、結果として低次ノードの予測精度が悪化する。
我々は、Rawlsian差分原理の観点から、GCNの次数関連性能格差を緩和する問題を定式化する。
論文 参考訳(メタデータ) (2022-02-28T05:07:57Z) - Learning to Drop: Robust Graph Neural Network via Topological Denoising [50.81722989898142]
グラフニューラルネットワーク(GNN)のロバスト性および一般化性能を向上させるために,パラメータ化トポロジカルデノイングネットワークであるPTDNetを提案する。
PTDNetは、パラメータ化されたネットワークでスパーシファイドグラフ内のエッジ数をペナル化することで、タスク非関連エッジを創出する。
PTDNetはGNNの性能を著しく向上させ,さらにノイズの多いデータセットでは性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-13T18:53:21Z) - Revisiting Graph Convolutional Network on Semi-Supervised Node
Classification from an Optimization Perspective [10.178145000390671]
グラフ畳み込みネットワーク(GCN)は、様々なグラフベースのタスクにおいて有望な性能を達成した。
しかし、より多くのレイヤを積み重ねる際には、過剰なスムーシングに悩まされる。
本稿では,この観測を定量的に研究し,より深いGCNに対する新たな洞察を開拓する。
論文 参考訳(メタデータ) (2020-09-24T03:36:43Z) - Graph Convolutional Networks for Graphs Containing Missing Features [5.426650977249329]
グラフ畳み込みネットワーク(GCN)を欠落した特徴を含むグラフに適応させる手法を提案する。
従来の戦略とは対照的に、我々のアプローチは、欠落した特徴の処理とグラフ学習を、同じニューラルネットワークアーキテクチャ内で統合する。
本研究では,提案手法がノード分類やリンク予測タスクにおいて,命令に基づく手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-07-09T06:47:21Z) - DeeperGCN: All You Need to Train Deeper GCNs [66.64739331859226]
グラフ畳み込みネットワーク(GCN)はグラフ上での表現学習の力で注目されている。
非常に深いレイヤを積み重ねることのできる畳み込みニューラルネットワーク(CNN)とは異なり、GCNはより深く進むと、勾配の消失、過度なスムース化、過度に適合する問題に悩まされる。
本稿では,非常に深いGCNを正常かつ確実に訓練できるDeeperGCNを提案する。
論文 参考訳(メタデータ) (2020-06-13T23:00:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。