論文の概要: Epitomic Variational Graph Autoencoder
- arxiv url: http://arxiv.org/abs/2004.01468v3
- Date: Fri, 7 Aug 2020 13:10:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 03:51:31.503448
- Title: Epitomic Variational Graph Autoencoder
- Title(参考訳): エピトミック変動グラフオートエンコーダ
- Authors: Rayyan Ahmad Khan, Muhammad Umer Anwaar and Martin Kleinsteuber
- Abstract要約: 変分オートエンコーダ (VAE) は潜在表現の学習に広く用いられている生成モデルである。
EVGAEはグラフデータセットのための生成的変動フレームワークであり、オーバープルーニング問題を緩和することに成功した。
- 参考スコア(独自算出の注目度): 3.9348884623092517
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Variational autoencoder (VAE) is a widely used generative model for learning
latent representations. Burda et al. in their seminal paper showed that
learning capacity of VAE is limited by over-pruning. It is a phenomenon where a
significant number of latent variables fail to capture any information about
the input data and the corresponding hidden units become inactive. This
adversely affects learning diverse and interpretable latent representations. As
variational graph autoencoder (VGAE) extends VAE for graph-structured data, it
inherits the over-pruning problem. In this paper, we adopt a model based
approach and propose epitomic VGAE (EVGAE),a generative variational framework
for graph datasets which successfully mitigates the over-pruning problem and
also boosts the generative ability of VGAE. We consider EVGAE to consist of
multiple sparse VGAE models, called epitomes, that are groups of latent
variables sharing the latent space. This approach aids in increasing active
units as epitomes compete to learn better representation of the graph data. We
verify our claims via experiments on three benchmark datasets. Our experiments
show that EVGAE has a better generative ability than VGAE. Moreover, EVGAE
outperforms VGAE on link prediction task in citation networks.
- Abstract(参考訳): 変分オートエンコーダ(VAE)は潜在表現の学習に広く用いられている生成モデルである。
バーダらは学術論文で、VAEの学習能力はオーバープルーニングによって制限されていることを示した。
これは、かなりの数の潜伏変数が入力データに関する情報を捕捉できず、対応する隠蔽ユニットが非アクティブになる現象である。
これは多様で解釈可能な潜在表現の学習に悪影響を及ぼす。
変分グラフオートエンコーダ(VGAE)は、グラフ構造化データに対してVAEを拡張するため、オーバープルーニング問題を継承する。
本稿では,モデルに基づくアプローチを採用し,グラフデータセットの生成的変動フレームワークであるEVGAEを提案し,オーバープルーニング問題を緩和し,VGAEの生成能力を向上する。
我々はEVGAEを,潜時空間を共有する潜時変数群であるエピトームと呼ばれる複数のスパースVGAEモデルからなると考えている。
このアプローチは、エピトームがグラフデータのより良い表現を学ぶために競合するため、アクティブユニットの増加を支援する。
3つのベンチマークデータセットで実験を行い、クレームを検証する。
EVGAEはVGAEよりも優れた生成能を有することが示された。
さらに、evgaeは引用ネットワークにおけるリンク予測タスクにおいてvgaeよりも優れている。
関連論文リスト
- Gradformer: Graph Transformer with Exponential Decay [69.50738015412189]
グラフ変換器(GT)の自己保持機構は、グラフの帰納バイアス、特に構造に関するバイアスを見落としている。
本稿では,GTと本質的帰納バイアスを革新的に統合するGradformerを提案する。
GradformerはグラフニューラルネットワークやGTベースラインモデルよりも、さまざまなグラフ分類や回帰タスクにおいて一貫して優れています。
論文 参考訳(メタデータ) (2024-04-24T08:37:13Z) - GiGaMAE: Generalizable Graph Masked Autoencoder via Collaborative Latent
Space Reconstruction [76.35904458027694]
マスク付きオートエンコーダモデルは、グラフデータに対する優れた一般化能力に欠ける。
本稿では,GiGaMAEと呼ばれる新しいグラフマスマスキングオートエンコーダフレームワークを提案する。
私たちの結果は、グラフ構造化データに基づく基礎モデルの設計に光を当てます。
論文 参考訳(メタデータ) (2023-08-18T16:30:51Z) - EGG-GAE: scalable graph neural networks for tabular data imputation [8.775728170359024]
本稿では,データ計算に欠ける新しいEdGe生成グラフオートエンコーダ(EGG-GAE)を提案する。
EGG-GAEは、入力データのランダムにサンプリングされたミニバッチで動作し、各アーキテクチャ層におけるミニバッチ間の接続性を自動的に推測する。
論文 参考訳(メタデータ) (2022-10-19T10:26:17Z) - Variational Flow Graphical Model [22.610974083362606]
変分グラフフロー(VFG)モデルは,メッセージパッシング方式を用いて高次元データの表現を学習する。
VFGは低次元を用いてデータの表現を生成し、多くのフローベースモデルの欠点を克服する。
実験では、VFGは改良されたエビデンスローバウンド(ELBO)と複数のデータセットの確率値を達成する。
論文 参考訳(メタデータ) (2022-07-06T14:51:03Z) - GraphMAE: Self-Supervised Masked Graph Autoencoders [52.06140191214428]
本稿では,自己教師付きグラフ学習における課題を軽減するマスク付きグラフオートエンコーダGraphMAEを提案する。
我々は3つの異なるグラフ学習タスクに対して、21の公開データセットに関する広範な実験を行った。
その結果,GraphMAEはグラフオートエンコーダであり,設計に注意を払っている。
論文 参考訳(メタデータ) (2022-05-22T11:57:08Z) - Augmenting Knowledge Graphs for Better Link Prediction [6.471748561079419]
KGA: 損失関数を変更することなく,リテラルを埋め込みモデルに組み込む知識グラフ拡張手法。
KGAは、量と年値をビンに識別し、これらのビンを水平と垂直の両方に鎖する。
レガシーベンチマークと新しい大規模ベンチマークであるDWDの実験は、知識グラフを量と年数で拡張することは、エンティティと数値の両方を予測するのに有益であることを示している。
論文 参考訳(メタデータ) (2022-03-26T02:06:17Z) - Iterative Graph Self-Distillation [161.04351580382078]
我々は、IGSD(Iterative Graph Self-Distillation)と呼ばれる新しい教師なしグラフ学習パラダイムを提案する。
IGSDは、グラフ拡張による教師/学生の蒸留を反復的に行う。
我々は,教師なしと半教師なしの両方の設定において,さまざまなグラフデータセットに対して,有意かつ一貫したパフォーマンス向上を実現していることを示す。
論文 参考訳(メタデータ) (2020-10-23T18:37:06Z) - Graph Contrastive Learning with Augmentations [109.23158429991298]
グラフデータの教師なし表現を学習するためのグラフコントラスト学習(GraphCL)フレームワークを提案する。
我々のフレームワークは、最先端の手法と比較して、類似またはより良い一般化可能性、転送可能性、堅牢性のグラフ表現を作成できることを示す。
論文 参考訳(メタデータ) (2020-10-22T20:13:43Z) - Dirichlet Graph Variational Autoencoder [65.94744123832338]
本稿では,グラフクラスタメンバシップを潜在因子とするDGVAE(Dirichlet Graph Variational Autoencoder)を提案する。
バランスグラフカットにおける低パス特性により、入力グラフをクラスタメンバシップにエンコードする、Heattsと呼ばれるGNNの新しい変種を提案する。
論文 参考訳(メタデータ) (2020-10-09T07:35:26Z) - Simple and Effective Graph Autoencoders with One-Hop Linear Models [25.37082257457257]
グラフ畳み込みネットワーク(GCN)エンコーダは、多くのアプリケーションにとって必要以上に複雑であることを示す。
グラフの直近傍(ワンホップ)隣接行列(英語版)(direct neighborhood (one-hop) adjacency matrix) w.r.t. において、より単純で解釈可能な線形モデルで置き換えることを提案する。
論文 参考訳(メタデータ) (2020-01-21T15:33:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。