論文の概要: Auto-decoding Graphs
- arxiv url: http://arxiv.org/abs/2006.02879v1
- Date: Thu, 4 Jun 2020 14:23:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 09:24:25.526211
- Title: Auto-decoding Graphs
- Title(参考訳): 自動デコードグラフ
- Authors: Sohil Atul Shah and Vladlen Koltun
- Abstract要約: 生成モデルは、潜在コードからグラフを合成することを学ぶ自動デコーダである。
グラフは、おそらく接続パターンを特定するためにトレーニングされた自己アテンションモジュールを使用して合成される。
- 参考スコア(独自算出の注目度): 91.3755431537592
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present an approach to synthesizing new graph structures from empirically
specified distributions. The generative model is an auto-decoder that learns to
synthesize graphs from latent codes. The graph synthesis model is learned
jointly with an empirical distribution over the latent codes. Graphs are
synthesized using self-attention modules that are trained to identify likely
connectivity patterns. Graph-based normalizing flows are used to sample latent
codes from the distribution learned by the auto-decoder. The resulting model
combines accuracy and scalability. On benchmark datasets of large graphs, the
presented model outperforms the state of the art by a factor of 1.5 in mean
accuracy and average rank across at least three different graph statistics,
with a 2x speedup during inference.
- Abstract(参考訳): 実験によって特定された分布から新しいグラフ構造を合成する手法を提案する。
生成モデルは、潜在コードからグラフを合成することを学ぶ自動デコーダである。
グラフ合成モデルは、潜在符号上の経験的分布と共同で学習される。
グラフは、おそらく接続パターンを特定するためにトレーニングされた自己注意モジュールを使用して合成される。
グラフベースの正規化フローは、オートデコーダが学習した分布から潜時コードのサンプリングに使用される。
結果として得られたモデルは、精度とスケーラビリティを組み合わせる。
大規模グラフのベンチマークデータセットでは、提示されたモデルは、少なくとも3つの異なるグラフ統計で平均精度と平均ランクで1.5倍の精度でアートの状態を上回り、推論中に2倍のスピードアップを行う。
関連論文リスト
- GraphRCG: Self-Conditioned Graph Generation [78.69810678803248]
本稿では,グラフ分布を明示的にモデル化する自己条件付きグラフ生成フレームワークを提案する。
本フレームワークは, 既存のグラフ生成手法に比べて, 学習データに対するグラフ品質と忠実度において優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-02T02:28:20Z) - SaGess: Sampling Graph Denoising Diffusion Model for Scalable Graph
Generation [7.66297856898883]
SaGess は拡散モデル (DiGress) を一般化された分割・分散フレームワークで拡張することで、大規模な現実世界のネットワークを生成することができる。
SaGessは、最先端のグラフ生成手法の大部分を重要な要因によって上回っている。
論文 参考訳(メタデータ) (2023-06-29T10:02:39Z) - Graph Condensation via Receptive Field Distribution Matching [61.71711656856704]
本稿では,元のグラフを表す小さなグラフの作成に焦点をあてる。
我々は、元のグラフを受容体の分布とみなし、受容体が同様の分布を持つ小さなグラフを合成することを目的としている。
論文 参考訳(メタデータ) (2022-06-28T02:10:05Z) - OOD-GNN: Out-of-Distribution Generalized Graph Neural Network [73.67049248445277]
グラフニューラルネットワーク(GNN)は、グラフデータのテストとトレーニングを同一の分布から行うことで、優れたパフォーマンスを実現している。
既存のGNNでは、テストとグラフデータのトレーニングの間に分散シフトが存在する場合、その性能が著しく低下する。
本稿では,学習グラフと異なる分布を持つ未確認試験グラフに対して,満足な性能を実現するために,アウト・オブ・ディストリビューション一般化グラフニューラルネットワーク(OOD-GNN)を提案する。
論文 参考訳(メタデータ) (2021-12-07T16:29:10Z) - A Deep Latent Space Model for Graph Representation Learning [10.914558012458425]
本稿では,従来の潜時変動に基づく生成モデルをディープラーニングフレームワークに組み込むために,有向グラフのための深潜時空間モデル(DLSM)を提案する。
提案モデルは,階層的変動型オートエンコーダアーキテクチャによって階層的に接続されるグラフ畳み込みネットワーク(GCN)エンコーダとデコーダから構成される。
実世界のデータセットにおける実験により,提案モデルがリンク予測とコミュニティ検出の両タスクにおける最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-06-22T12:41:19Z) - Learning Graphon Autoencoders for Generative Graph Modeling [91.32624399902755]
Graphonは任意のサイズでグラフを生成する非パラメトリックモデルであり、グラフから簡単に誘導できる。
解析可能でスケーラブルなグラフ生成モデルを構築するために,textitgraphon autoencoder という新しいフレームワークを提案する。
線形グルーポン分解モデルはデコーダとして機能し、潜在表現を活用して誘導されたグルーポンを再構成する。
論文 参考訳(メタデータ) (2021-05-29T08:11:40Z) - Non-Parametric Graph Learning for Bayesian Graph Neural Networks [35.88239188555398]
グラフ隣接行列の後方分布を構築するための新しい非パラメトリックグラフモデルを提案する。
このモデルの利点を,ノード分類,リンク予測,レコメンデーションという3つの異なる問題設定で示す。
論文 参考訳(メタデータ) (2020-06-23T21:10:55Z) - Block-Approximated Exponential Random Graphs [77.4792558024487]
指数乱グラフ(ERG)の分野における重要な課題は、大きなグラフ上の非自明なERGの適合である。
本稿では,非自明なERGに対する近似フレームワークを提案する。
我々の手法は、数百万のノードからなるスパースグラフにスケーラブルである。
論文 参考訳(メタデータ) (2020-02-14T11:42:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。