論文の概要: Explainable, Stable, and Scalable Graph Convolutional Networks for
Learning Graph Representation
- arxiv url: http://arxiv.org/abs/2009.10367v1
- Date: Tue, 22 Sep 2020 07:49:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 21:57:23.124039
- Title: Explainable, Stable, and Scalable Graph Convolutional Networks for
Learning Graph Representation
- Title(参考訳): グラフ表現学習のための説明可能で安定でスケーラブルなグラフ畳み込みネットワーク
- Authors: Ping-En Lu and Cheng-Shang Chang
- Abstract要約: このような問題を解決するためにグラフニューラルネットワーク(GNN)が提案されている。
本稿では,制約付き最適化問題に基づく新しい視点からこの問題に取り組む。
本稿では,これらの問題を解決するために,GCN(Convolutional Network)の特殊クラスに属する2つのアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 4.440174541397484
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The network embedding problem that maps nodes in a graph to vectors in
Euclidean space can be very useful for addressing several important tasks on a
graph. Recently, graph neural networks (GNNs) have been proposed for solving
such a problem. However, most embedding algorithms and GNNs are difficult to
interpret and do not scale well to handle millions of nodes. In this paper, we
tackle the problem from a new perspective based on the equivalence of three
constrained optimization problems: the network embedding problem, the trace
maximization problem of the modularity matrix in a sampled graph, and the
matrix factorization problem of the modularity matrix in a sampled graph. The
optimal solutions to these three problems are the dominant eigenvectors of the
modularity matrix. We proposed two algorithms that belong to a special class of
graph convolutional networks (GCNs) for solving these problems: (i) Clustering
As Feature Embedding GCN (CAFE-GCN) and (ii) sphere-GCN. Both algorithms are
stable trace maximization algorithms, and they yield good approximations of
dominant eigenvectors. Moreover, there are linear-time implementations for
sparse graphs. In addition to solving the network embedding problem, both
proposed GCNs are capable of performing dimensionality reduction. Various
experiments are conducted to evaluate our proposed GCNs and show that our
proposed GCNs outperform almost all the baseline methods. Moreover, CAFE-GCN
could be benefited from the labeled data and have tremendous improvements in
various performance metrics.
- Abstract(参考訳): グラフ内のノードをユークリッド空間内のベクトルにマッピングするネットワーク埋め込み問題は、グラフ上のいくつかの重要なタスクに対処するのに非常に有用である。
近年,このような問題を解決するためにグラフニューラルネットワーク(GNN)が提案されている。
しかし、ほとんどの埋め込みアルゴリズムやGNNは解釈が困難であり、数百万のノードを扱うのに十分ではない。
本稿では,ネットワーク埋め込み問題,サンプルグラフにおけるモジュラリティ行列のトレース最大化問題,サンプルグラフにおけるモジュラリティ行列の行列因数分解問題という,3つの制約付き最適化問題の等価性に基づく新しい視点から問題に取り組む。
これら3つの問題の最適解はモジュラリティ行列の優性固有ベクトルである。
これらの問題を解決するために,我々はグラフ畳み込みネットワーク(gcns)の特殊クラスに属する2つのアルゴリズムを提案した。
(i)特徴埋め込みgcn(cafe-gcn)とクラスタリング
(II)Sphere-GCN。
どちらのアルゴリズムも安定なトレース最大化アルゴリズムであり、支配的固有ベクトルのよい近似を与える。
さらに、スパースグラフの線形時間実装もある。
ネットワーク埋め込みの問題を解決することに加えて、提案したGCNも次元削減を行うことができる。
提案したGCNを各種実験により評価し,提案したGCNがほぼすべてのベースライン法より優れていることを示す。
さらに、CAFE-GCNはラベル付きデータから恩恵を受けることができ、様々なパフォーマンス指標が大幅に改善される。
関連論文リスト
- Scalable Graph Compressed Convolutions [68.85227170390864]
ユークリッド畳み込みのための入力グラフのキャリブレーションに置換を適用する微分可能手法を提案する。
グラフキャリブレーションに基づいて,階層型グラフ表現学習のための圧縮畳み込みネットワーク(CoCN)を提案する。
論文 参考訳(メタデータ) (2024-07-26T03:14:13Z) - Degree-based stratification of nodes in Graph Neural Networks [66.17149106033126]
グラフニューラルネットワーク(GNN)アーキテクチャを変更して,各グループのノードに対して,重み行列を個別に学習する。
このシンプルな実装変更により、データセットとGNNメソッドのパフォーマンスが改善されているようだ。
論文 参考訳(メタデータ) (2023-12-16T14:09:23Z) - Robust Graph Neural Network based on Graph Denoising [10.564653734218755]
グラフニューラルネットワーク(GNN)は、非ユークリッドデータセットを扱う学習問題に対して、悪名高い代替手段として登場した。
本研究は,観測トポロジにおける摂動の存在を明示的に考慮した,GNNの堅牢な実装を提案する。
論文 参考訳(メタデータ) (2023-12-11T17:43:57Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Binary Graph Convolutional Network with Capacity Exploration [58.99478502486377]
ネットワークパラメータと入力ノード属性の両方を二項化するバイナリグラフ畳み込みネットワーク(Bi-GCN)を提案する。
我々のBi-GCNは、ネットワークパラメータと入力データの両方で平均31倍のメモリ消費を削減でき、推論速度を平均51倍に加速できる。
論文 参考訳(メタデータ) (2022-10-24T12:05:17Z) - Node Feature Kernels Increase Graph Convolutional Network Robustness [19.076912727990326]
グラフ畳み込みネットワーク(GCN)の入力の摂動に対する堅牢性は、ますます重要になっているトピックになりつつある。
本稿では,ランダム行列理論解析が可能である。
グラフ構造の隣接行列にノード特徴カーネルを追加することで、GCNにおけるメッセージパッシングステップの強化がこの問題を解決することが観察された。
論文 参考訳(メタデータ) (2021-09-04T04:20:45Z) - Learning Graph Neural Networks with Approximate Gradient Descent [24.49427608361397]
ラベルがノードまたはグラフに添付されているかどうかに応じて、2種類のグラフニューラルネットワーク(GNN)が調査されます。
gnnトレーニングアルゴリズムの設計と解析のための包括的なフレームワークを開発した。
提案アルゴリズムは,GNNの根底にある真のパラメータに対する線形収束率を保証する。
論文 参考訳(メタデータ) (2020-12-07T02:54:48Z) - Simple and Deep Graph Convolutional Networks [63.76221532439285]
グラフ畳み込みネットワーク(GCN)は、グラフ構造化データに対する強力なディープラーニングアプローチである。
その成功にもかかわらず、現在のGCNモデルは、エムの過度に滑らかな問題のため、ほとんどが浅くなっている。
本稿では,2つの単純かつ効果的な手法を用いて,バニラGCNモデルを拡張したGCNIIを提案する。
論文 参考訳(メタデータ) (2020-07-04T16:18:06Z) - Graph Highway Networks [77.38665506495553]
グラフ畳み込みネットワーク(GCN)は、グラフ表現の有効性と効率性から、グラフ表現の学習に広く利用されている。
彼らは、多くの層が積み重ねられたとき、学習された表現が類似したベクトルに収束するという悪名高い過度に滑らかな問題に悩まされる。
本稿では,GCN学習プロセスにおける均一性と不均一性との間のトレードオフのバランスをとるため,ゲーティングユニットを利用したグラフハイウェイネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-09T16:26:43Z) - Geom-GCN: Geometric Graph Convolutional Networks [15.783571061254847]
本稿では,この2つの弱点を克服するために,グラフニューラルネットワークのための新しい幾何集約手法を提案する。
提案したアグリゲーションスキームは置換不変であり、ノード埋め込み、構造近傍、二レベルアグリゲーションという3つのモジュールから構成される。
また,このスキームをGeom-GCNと呼ばれるグラフ畳み込みネットワークに実装し,グラフ上でトランスダクティブ学習を行う。
論文 参考訳(メタデータ) (2020-02-13T00:03:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。