論文の概要: Data Augmentation View on Graph Convolutional Network and the Proposal
of Monte Carlo Graph Learning
- arxiv url: http://arxiv.org/abs/2006.13090v1
- Date: Tue, 23 Jun 2020 15:25:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 22:07:39.834691
- Title: Data Augmentation View on Graph Convolutional Network and the Proposal
of Monte Carlo Graph Learning
- Title(参考訳): グラフ畳み込みネットワークにおけるデータ拡張ビューとモンテカルログラフ学習の提案
- Authors: Hande Dong, Zhaolin Ding, Xiangnan He, Fuli Feng and Shuxian Bi
- Abstract要約: 従来の理解よりも透明性の高いデータ拡張を導入します。
そこで我々はモンテカルログラフ学習(MCGL)という新しいグラフ学習パラダイムを提案する。
MCGLの耐雑音性は、ノイズグラフ上のGCNよりも弱いことを示す。
- 参考スコア(独自算出の注目度): 51.03995934179918
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Today, there are two major understandings for graph convolutional networks,
i.e., in the spectral and spatial domain. But both lack transparency. In this
work, we introduce a new understanding for it -- data augmentation, which is
more transparent than the previous understandings. Inspired by it, we propose a
new graph learning paradigm -- Monte Carlo Graph Learning (MCGL). The core idea
of MCGL contains: (1) Data augmentation: propagate the labels of the training
set through the graph structure and expand the training set; (2) Model
training: use the expanded training set to train traditional classifiers. We
use synthetic datasets to compare the strengths of MCGL and graph convolutional
operation on clean graphs. In addition, we show that MCGL's tolerance to graph
structure noise is weaker than GCN on noisy graphs (four real-world datasets).
Moreover, inspired by MCGL, we re-analyze the reasons why the performance of
GCN becomes worse when deepened too much: rather than the mainstream view of
over-smoothing, we argue that the main reason is the graph structure noise, and
experimentally verify our view. The code is available at
https://github.com/DongHande/MCGL.
- Abstract(参考訳): 今日、グラフ畳み込みネットワークには、スペクトル領域と空間領域の2つの主要な理解がある。
しかし、どちらも透明性がない。
本研究では,従来の理解よりも透明性が高いデータ拡張という新たな理解を導入する。その着想を得て,新しいグラフ学習パラダイムであるモンテカルログラフ学習(MCGL)を提案する。
MCGLの中核となる考え方は,(1)データ拡張:グラフ構造を通してトレーニングセットのラベルを伝播し,トレーニングセットを拡張する;(2)モデルトレーニング:拡張トレーニングセットを使用して従来の分類器を訓練する。
合成データセットを用いて,クリーングラフ上のMCGLとグラフ畳み込み操作の強度を比較する。
さらに,MCGLの耐雑音性は,雑音性グラフ(実世界の4つのデータセット)のGCNよりも弱いことを示す。
さらに、mcgl に触発されて、gcn のパフォーマンスが過度に悪化する理由を再分析した: 過剰なスムーシングの主流の見解ではなく、主な理由はグラフ構造ノイズであり、私たちの見解を実験的に検証している。
コードはhttps://github.com/donghande/mcglで入手できる。
関連論文リスト
- Community-Invariant Graph Contrastive Learning [21.72222875193335]
本研究では,グラフ強化におけるグラフコミュニティの役割について検討する。
本稿では,学習可能なグラフ拡張時のグラフコミュニティ構造を維持するための,コミュニティ不変なGCLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-02T14:59:58Z) - GraphGPT: Graph Instruction Tuning for Large Language Models [27.036935149004726]
グラフニューラルネットワーク(GNN)は、グラフ構造を理解するために進化してきた。
堅牢性を高めるために、自己教師付き学習(SSL)はデータ拡張の重要なツールとなっている。
本研究は,ゼロショット学習環境におけるグラフモデルの一般化を推し進めることによって,この問題に対処する。
論文 参考訳(メタデータ) (2023-10-19T06:17:46Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Scaling R-GCN Training with Graph Summarization [71.06855946732296]
リレーショナルグラフ畳み込みネットワーク(R-GCN)のトレーニングは、グラフのサイズに合わない。
本研究では,グラフの要約手法を用いてグラフを圧縮する実験を行った。
AIFB, MUTAG, AMデータセットについて妥当な結果を得た。
論文 参考訳(メタデータ) (2022-03-05T00:28:43Z) - Bringing Your Own View: Graph Contrastive Learning without Prefabricated
Data Augmentations [94.41860307845812]
Self-supervisionは最近、グラフ学習の新しいフロンティアに力を入れている。
GraphCLは、グラフデータ拡張のアドホックな手作業による選択によって反映されたプレハブ付きプリファブリックを使用する。
グラフ生成器のパラメータ空間における学習可能な連続前処理へと拡張した。
我々は、情報最小化(InfoMin)と情報ボトルネック(InfoBN)の2つの原則を利用して、学習した事前情報を規則化する。
論文 参考訳(メタデータ) (2022-01-04T15:49:18Z) - Graph Contrastive Learning with Augmentations [109.23158429991298]
グラフデータの教師なし表現を学習するためのグラフコントラスト学習(GraphCL)フレームワークを提案する。
我々のフレームワークは、最先端の手法と比較して、類似またはより良い一般化可能性、転送可能性、堅牢性のグラフ表現を作成できることを示す。
論文 参考訳(メタデータ) (2020-10-22T20:13:43Z) - Iterative Deep Graph Learning for Graph Neural Networks: Better and
Robust Node Embeddings [53.58077686470096]
グラフ構造とグラフ埋め込みを協調的かつ反復的に学習するための、エンドツーエンドのグラフ学習フレームワーク、すなわち、IDGL(Iterative Deep Graph Learning)を提案する。
実験の結果,提案したIDGLモデルは,最先端のベースラインを一貫して上回る,あるいは一致させることができることがわかった。
論文 参考訳(メタデータ) (2020-06-21T19:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。