論文の概要: A Simple Yet Effective SVD-GCN for Directed Graphs
- arxiv url: http://arxiv.org/abs/2205.09335v1
- Date: Thu, 19 May 2022 06:23:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-20 14:36:51.463850
- Title: A Simple Yet Effective SVD-GCN for Directed Graphs
- Title(参考訳): 方向性グラフのための単純で効果的なSVD-GCN
- Authors: Chunya Zou, Andi Han, Lequan Lin, Junbin Gao
- Abstract要約: 古典的特異値分解(SVD)に基づく有向グラフ(グラフ)のためのグラフニューラルネットワークを提案する。
新しいグラフニューラルネットワークは、SVD周波数帯上のグラフ信号の分解を改善するために、SVDフレームレット上に構築されている。
- 参考スコア(独自算出の注目度): 27.71018932795014
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a simple yet effective graph neural network for
directed graphs (digraph) based on the classic Singular Value Decomposition
(SVD), named SVD-GCN. The new graph neural network is built upon the graph
SVD-framelet to better decompose graph signals on the SVD ``frequency'' bands.
Further the new framelet SVD-GCN is also scaled up for larger scale graphs via
using Chebyshev polynomial approximation. Through empirical experiments
conducted on several node classification datasets, we have found that SVD-GCN
has remarkable improvements in a variety of graph node learning tasks and it
outperforms GCN and many other state-of-the-art graph neural networks for
digraphs. Moreover, we empirically demonstate that the SVD-GCN has great
denoising capability and robustness to high level graph data attacks. The
theoretical and experimental results prove that the SVD-GCN is effective on a
variant of graph datasets, meanwhile maintaining stable and even better
performance than the state-of-the-arts.
- Abstract(参考訳): 本稿では,従来のSingular Value Decomposition (SVD) に基づく有向グラフ(ディグラフ)のための,単純かつ効果的なグラフニューラルネットワーク SVD-GCN を提案する。
新しいグラフニューラルネットワークは、グラフsvdフレーム上に構築され、svd `` frequency'''バンド上のグラフ信号を分解する。
さらに,チェビシェフ多項式近似を用いて,新たなフレームレットSVD-GCNを大規模グラフに対してスケールアップする。
複数のノード分類データセットで行った実験を通じて、svd-gcnは様々なグラフノード学習タスクにおいて著しく改善され、グラフのためのgcnや他の最先端グラフニューラルネットワークよりも優れています。
さらに,我々は,SVD-GCNが高レベルグラフデータ攻撃に対する優れた認知能力とロバスト性を持っていることを実証的に実証した。
理論的および実験的結果は、SVD-GCNがグラフデータセットの変種に対して有効であり、一方で、最先端技術よりも安定的でさらに優れた性能を維持していることを証明している。
関連論文リスト
- Self-supervision meets kernel graph neural models: From architecture to
augmentations [36.388069423383286]
カーネルグラフニューラルネットワーク(KGNN)の設計と学習の改善
我々はLGA(Latent graph augmentation)と呼ばれる新しい構造保存グラフデータ拡張法を開発した。
提案モデルは,最先端のグラフ表現学習フレームワークに匹敵する,あるいは時として優れる性能を実現する。
論文 参考訳(メタデータ) (2023-10-17T14:04:22Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - GCNH: A Simple Method For Representation Learning On Heterophilous
Graphs [4.051099980410583]
グラフニューラルネットワーク(GNN)は、ホモフィルグラフの学習に適している。
近年,異種グラフの性能向上を目的とした標準GNNアーキテクチャの拡張が提案されている。
ヘテロフィリィ(GCNH)のためのGCNを提案し,ヘテロフィリィシナリオとホモフィリィシナリオの両方に適用できる簡易かつ効果的なGNNアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-04-21T11:26:24Z) - Graph Neural Tangent Kernel: Convergence on Large Graphs [7.624781434274796]
グラフニューラルネットワーク(GNN)は、グラフ機械学習タスクにおいて顕著なパフォーマンスを達成する。
グラフニューラルカーネル(GNTK)とグラフトンを用いた大規模グラフGNNのトレーニングダイナミクスについて検討する。
論文 参考訳(メタデータ) (2023-01-25T19:52:58Z) - GraphTTA: Test Time Adaptation on Graph Neural Networks [10.582212966736645]
グラフニューラルネットワーク(GNN)のための新しいテスト時間適応戦略であるグラフ適応擬似グループコントラスト(GAPGC)を提案する。
GAPGCは、TTA中に自己教師型タスクとして、Adversarial Learnable Augmenter と Group Pseudo-Positive Samples を備えた対照的な学習変種を採用している。
我々は,GAPGCが情報理論の観点から主課題に必要な最小限の情報を引き出すことができるという理論的証拠を提供する。
論文 参考訳(メタデータ) (2022-08-19T02:24:16Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Graph Contrastive Learning with Augmentations [109.23158429991298]
グラフデータの教師なし表現を学習するためのグラフコントラスト学習(GraphCL)フレームワークを提案する。
我々のフレームワークは、最先端の手法と比較して、類似またはより良い一般化可能性、転送可能性、堅牢性のグラフ表現を作成できることを示す。
論文 参考訳(メタデータ) (2020-10-22T20:13:43Z) - Bi-GCN: Binary Graph Convolutional Network [57.733849700089955]
ネットワークパラメータと入力ノードの特徴を二項化するバイナリグラフ畳み込みネットワーク(Bi-GCN)を提案する。
我々のBi-GCNは、ネットワークパラメータと入力データの両方で平均30倍のメモリ消費を削減でき、推論速度を平均47倍に加速できる。
論文 参考訳(メタデータ) (2020-10-15T07:26:23Z) - Dirichlet Graph Variational Autoencoder [65.94744123832338]
本稿では,グラフクラスタメンバシップを潜在因子とするDGVAE(Dirichlet Graph Variational Autoencoder)を提案する。
バランスグラフカットにおける低パス特性により、入力グラフをクラスタメンバシップにエンコードする、Heattsと呼ばれるGNNの新しい変種を提案する。
論文 参考訳(メタデータ) (2020-10-09T07:35:26Z) - Directed Graph Convolutional Network [15.879411956536885]
スペクトルベースのグラフ畳み込みを1階と2階の近接を利用して有向グラフに拡張する。
DGCNと呼ばれる新しいGCNモデルは、有向グラフ上で表現を学ぶように設計されている。
論文 参考訳(メタデータ) (2020-04-29T06:19:10Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。