論文の概要: Learning Graphon Autoencoders for Generative Graph Modeling
- arxiv url: http://arxiv.org/abs/2105.14244v1
- Date: Sat, 29 May 2021 08:11:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-05 19:44:13.571422
- Title: Learning Graphon Autoencoders for Generative Graph Modeling
- Title(参考訳): 生成グラフモデリングのためのグラフィオンオートエンコーダの学習
- Authors: Hongteng Xu, Peilin Zhao, Junzhou Huang, Dixin Luo
- Abstract要約: Graphonは任意のサイズでグラフを生成する非パラメトリックモデルであり、グラフから簡単に誘導できる。
解析可能でスケーラブルなグラフ生成モデルを構築するために,textitgraphon autoencoder という新しいフレームワークを提案する。
線形グルーポン分解モデルはデコーダとして機能し、潜在表現を活用して誘導されたグルーポンを再構成する。
- 参考スコア(独自算出の注目度): 91.32624399902755
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graphon is a nonparametric model that generates graphs with arbitrary sizes
and can be induced from graphs easily. Based on this model, we propose a novel
algorithmic framework called \textit{graphon autoencoder} to build an
interpretable and scalable graph generative model. This framework treats
observed graphs as induced graphons in functional space and derives their
latent representations by an encoder that aggregates Chebshev graphon filters.
A linear graphon factorization model works as a decoder, leveraging the latent
representations to reconstruct the induced graphons (and the corresponding
observed graphs). We develop an efficient learning algorithm to learn the
encoder and the decoder, minimizing the Wasserstein distance between the model
and data distributions. This algorithm takes the KL divergence of the graph
distributions conditioned on different graphons as the underlying distance and
leads to a reward-augmented maximum likelihood estimation. The graphon
autoencoder provides a new paradigm to represent and generate graphs, which has
good generalizability and transferability.
- Abstract(参考訳): Graphonは任意のサイズでグラフを生成する非パラメトリックモデルであり、グラフから簡単に誘導できる。
このモデルに基づき、解釈可能でスケーラブルなグラフ生成モデルを構築するための新しいアルゴリズムフレームワーク \textit{graphon autoencoder} を提案する。
このフレームワークは、観測されたグラフを関数空間における誘導グラフトンとして扱い、チェブシェフグラフロンフィルタを集約するエンコーダによってそれらの潜在表現を導出する。
線形グラフトン分解モデルは、潜在表現を利用して誘導グラフ(および対応する観測グラフ)を再構成するデコーダとして機能する。
モデルとデータ分布間のワッサースタイン距離を最小化し,エンコーダとデコーダを学習するための効率的な学習アルゴリズムを開発した。
このアルゴリズムは、異なるグラフオンに条件付きグラフ分布のKL分散を基礎となる距離として取り、報酬増大最大推定をもたらす。
graphonオートエンコーダは、グラフを表現および生成するための新しいパラダイムを提供する。
関連論文リスト
- Transformers as Graph-to-Graph Models [13.630495199720423]
トランスフォーマーは本質的にグラフからグラフへのモデルであり、シーケンスは特別なケースに過ぎない、と我々は主張する。
我々のGraph-to-Graph Transformerアーキテクチャは,グラフエッジを注目重み計算に入力し,注目機能を備えたグラフエッジを予測することで,これを明確化する。
論文 参考訳(メタデータ) (2023-10-27T07:21:37Z) - Implicit Graphon Neural Representation [15.175103000392488]
ニューラルネットワークを用いて直接グラモンをモデル化し,Implicit Graphon Neural Representation (IGNR) を得る。
我々のIGNRは、任意の解像度までグラフを表現でき、任意のサイズのグラフを自然かつ効率的に生成できるという利点がある。
本稿では,グラフ表現学習とグラフ生成に適したモデルを示す。
論文 参考訳(メタデータ) (2022-11-07T06:17:21Z) - Graph Kernel Neural Networks [53.91024360329517]
本稿では、グラフ上の内部積を計算するカーネル関数であるグラフカーネルを用いて、標準畳み込み演算子をグラフ領域に拡張することを提案する。
これにより、入力グラフの埋め込みを計算する必要のない完全に構造的なモデルを定義することができる。
私たちのアーキテクチャでは,任意の種類のグラフカーネルをプラグインすることが可能です。
論文 参考訳(メタデータ) (2021-12-14T14:48:08Z) - Learning Graphons via Structured Gromov-Wasserstein Barycenters [143.42601038462965]
本稿では,graphonと呼ばれる非パラメトリックグラフモデルを学ぶための新しい原理的手法を提案する。
提案手法は, 従来の最先端手法の欠点を克服し, 合成データと実データの両方でそれを上回る。
論文 参考訳(メタデータ) (2020-12-10T13:04:29Z) - Dirichlet Graph Variational Autoencoder [65.94744123832338]
本稿では,グラフクラスタメンバシップを潜在因子とするDGVAE(Dirichlet Graph Variational Autoencoder)を提案する。
バランスグラフカットにおける低パス特性により、入力グラフをクラスタメンバシップにエンコードする、Heattsと呼ばれるGNNの新しい変種を提案する。
論文 参考訳(メタデータ) (2020-10-09T07:35:26Z) - Non-Parametric Graph Learning for Bayesian Graph Neural Networks [35.88239188555398]
グラフ隣接行列の後方分布を構築するための新しい非パラメトリックグラフモデルを提案する。
このモデルの利点を,ノード分類,リンク予測,レコメンデーションという3つの異なる問題設定で示す。
論文 参考訳(メタデータ) (2020-06-23T21:10:55Z) - Graph Pooling with Node Proximity for Hierarchical Representation
Learning [80.62181998314547]
本稿では,ノード近接を利用したグラフプーリング手法を提案し,そのマルチホップトポロジを用いたグラフデータの階層的表現学習を改善する。
その結果,提案したグラフプーリング戦略は,公開グラフ分類ベンチマークデータセットの集合において,最先端のパフォーマンスを達成できることが示唆された。
論文 参考訳(メタデータ) (2020-06-19T13:09:44Z) - Auto-decoding Graphs [91.3755431537592]
生成モデルは、潜在コードからグラフを合成することを学ぶ自動デコーダである。
グラフは、おそらく接続パターンを特定するためにトレーニングされた自己アテンションモジュールを使用して合成される。
論文 参考訳(メタデータ) (2020-06-04T14:23:01Z) - Graph Deconvolutional Generation [3.5138314002170192]
我々は、Erdos-Renyiランダムグラフモデルの現代の等価性、すなわちグラフ変分オートエンコーダ(GVAE)に焦点を当てる。
GVAEは、トレーニング分布のマッチングが困難であり、高価なグラフマッチング手順に依存している。
我々は、GVAEのエンコーダとデコーダにメッセージパッシングニューラルネットワークを構築することにより、このモデルのクラスを改善した。
論文 参考訳(メタデータ) (2020-02-14T04:37:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。