論文の概要: Graph Neural Diffusion Networks for Semi-supervised Learning
- arxiv url: http://arxiv.org/abs/2201.09698v2
- Date: Fri, 3 Nov 2023 02:59:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-06 18:41:45.762376
- Title: Graph Neural Diffusion Networks for Semi-supervised Learning
- Title(参考訳): 半教師付き学習のためのグラフニューラルネットワーク
- Authors: Wei Ye, Zexi Huang, Yunqi Hong, Ambuj Singh
- Abstract要約: Graph Convolutional Networks (GCN)は、グラフに基づく半教師付き学習のパイオニアモデルである。
本稿では,局所的およびグローバルな近隣情報を利用したニューラルネット(グラフニューラルディフュージョンネットワーク)と呼ばれる新しいグラフニューラルネットワークを提案する。
ニューラルネットワークの採用により、ニューラルネットワークの拡散は異なるデータセットに適応できる。
- 参考スコア(独自算出の注目度): 6.376489604292251
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Convolutional Networks (GCN) is a pioneering model for graph-based
semi-supervised learning. However, GCN does not perform well on
sparsely-labeled graphs. Its two-layer version cannot effectively propagate the
label information to the whole graph structure (i.e., the under-smoothing
problem) while its deep version over-smoothens and is hard to train (i.e., the
over-smoothing problem). To solve these two issues, we propose a new graph
neural network called GND-Nets (for Graph Neural Diffusion Networks) that
exploits the local and global neighborhood information of a vertex in a single
layer. Exploiting the shallow network mitigates the over-smoothing problem
while exploiting the local and global neighborhood information mitigates the
under-smoothing problem. The utilization of the local and global neighborhood
information of a vertex is achieved by a new graph diffusion method called
neural diffusions, which integrate neural networks into the conventional linear
and nonlinear graph diffusions. The adoption of neural networks makes neural
diffusions adaptable to different datasets. Extensive experiments on various
sparsely-labeled graphs verify the effectiveness and efficiency of GND-Nets
compared to state-of-the-art approaches.
- Abstract(参考訳): Graph Convolutional Networks (GCN)は、グラフに基づく半教師付き学習のパイオニアモデルである。
しかし、GCNは疎ラベルグラフではうまく機能しない。
その2層バージョンはラベル情報をグラフ構造全体に効果的に伝播することができない(すなわち、スムーシング問題)が、深いバージョンはスムーヘンを過剰に扱い、訓練が難しい(すなわち、オーバースモーシング問題)。
これら2つの問題を解決するために,単一の層内の頂点の局所的および大域的近傍情報を利用するGND-Nets(Graph Neural Diffusion Networks)というグラフニューラルネットワークを提案する。
浅層ネットワークの活用は, 局所的およびグローバル的近傍情報を活用することで, 過喫煙問題を緩和する。
頂点の局所的および大域的近傍情報の利用は、ニューラルネットワークを従来の線形および非線形グラフ拡散に統合するニューラル拡散と呼ばれる新しいグラフ拡散法によって達成される。
ニューラルネットワークの採用により、ニューラルネットワークの拡散は異なるデータセットに適応できる。
各種スパースラベルグラフの広範囲な実験により、GND-Netsの有効性と効率を最先端のアプローチと比較して検証する。
関連論文リスト
- Tensor-view Topological Graph Neural Network [16.433092191206534]
グラフニューラルネットワーク(GNN)は最近、グラフ学習において注目を集めている。
既存のGNNは、各ノード周辺の非常に限られた地区からのローカル情報のみを使用する。
本稿では,単純かつ効果的な深層学習のクラスであるTopological Graph Neural Network (TTG-NN)を提案する。
実データ実験により,提案したTTG-NNは,グラフベンチマークにおいて20の最先端手法より優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:55:01Z) - Learning to Approximate Adaptive Kernel Convolution on Graphs [4.434835769977399]
本稿では,拡散カーネルのスケールによって特徴集約の範囲を制御できる拡散学習フレームワークを提案する。
本モデルは,最先端データセットの性能評価のためのノードワイズ分類のための様々な標準で検証されている。
グラフ分類のための実世界の脳ネットワークデータにも検証され、アルツハイマー分類の実用性を実証している。
論文 参考訳(メタデータ) (2024-01-22T10:57:11Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Learning Strong Graph Neural Networks with Weak Information [64.64996100343602]
我々は、弱い情報(GLWI)を用いたグラフ学習問題に対する原則的アプローチを開発する。
非完全構造を持つ入力グラフ上で長距離情報伝搬を行うデュアルチャネルGNNフレームワークであるD$2$PTを提案するが、グローバルな意味的類似性を符号化するグローバルグラフも提案する。
論文 参考訳(メタデータ) (2023-05-29T04:51:09Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - An Introduction to Robust Graph Convolutional Networks [71.68610791161355]
本論文では, 誤りのある単一ビューあるいは複数ビューのデータに対して, 新たなロバストグラフ畳み込みニューラルネットワークを提案する。
従来のグラフ畳み込みネットワークにAutoencodersを介して余分なレイヤを組み込むことで、典型的なエラーモデルを明示的に特徴付けおよび処理します。
論文 参考訳(メタデータ) (2021-03-27T04:47:59Z) - Get Rid of Suspended Animation Problem: Deep Diffusive Neural Network on
Graph Semi-Supervised Classification [10.879701971582502]
本稿では,グラフ表現学習とノード分類のための新しいグラフニューラルネットワーク,すなわちDIFNETを提案する。
この論文では、DIFNETをいくつかの最先端グラフニューラルネットワークモデルと比較する大規模な実験を行う。
論文 参考訳(メタデータ) (2020-01-22T09:19:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。