論文の概要: Vector-Quantized Graph Auto-Encoder
- arxiv url: http://arxiv.org/abs/2306.07735v1
- Date: Tue, 13 Jun 2023 12:40:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 13:52:23.986185
- Title: Vector-Quantized Graph Auto-Encoder
- Title(参考訳): ベクトル量子グラフオートエンコーダ
- Authors: Yoann Boget, Magda Gregorova, Alexandros Kalousis
- Abstract要約: 本稿では,Vector-Quantized Graph Auto-Encoder (VQ-GAE)を紹介した。
我々のモデルは,最先端技術と比較して,最も健全な評価指標のいくつかにおいて優れた性能を達成している。
- 参考スコア(独自算出の注目度): 72.66289932625742
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we addresses the problem of modeling distributions of graphs.
We introduce the Vector-Quantized Graph Auto-Encoder (VQ-GAE), a
permutation-equivariant discrete auto-encoder and designed to model the
distribution of graphs. By exploiting the permutation-equivariance of graph
neural networks (GNNs), our autoencoder circumvents the problem of the ordering
of the graph representation. We leverage the capability of GNNs to capture
local structures of graphs while employing vector-quantization to prevent the
mapping of discrete objects to a continuous latent space. Furthermore, the use
of autoregressive models enables us to capture the global structure of graphs
via the latent representation. We evaluate our model on standard datasets used
for graph generation and observe that it achieves excellent performance on some
of the most salient evaluation metrics compared to the state-of-the-art.
- Abstract(参考訳): 本稿では,グラフの分布をモデル化する問題に対処する。
本稿では,Vector-Quantized Graph Auto-Encoder (VQ-GAE)を導入する。
グラフニューラルネットワーク(GNN)の置換等価性を利用することで、オートエンコーダはグラフ表現の順序付けの問題を回避する。
我々はgnnの機能を利用してグラフの局所構造を捉え、離散オブジェクトの連続的潜在空間へのマッピングを防ぐためにベクトル量子化を利用する。
さらに、自己回帰モデルを用いることで、潜在表現を通してグラフのグローバル構造を捉えることができる。
グラフ生成に使用する標準データセットのモデルを評価し,最先端と比較した評価基準で優れた性能が得られることを確認した。
関連論文リスト
- Ensemble Quadratic Assignment Network for Graph Matching [52.20001802006391]
グラフマッチングはコンピュータビジョンやパターン認識において一般的に用いられる技法である。
最近のデータ駆動型アプローチは、グラフマッチングの精度を著しく改善した。
データ駆動手法と従来の手法の利点を組み合わせたグラフニューラルネットワーク(GNN)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2024-03-11T06:34:05Z) - Isomorphic-Consistent Variational Graph Auto-Encoders for Multi-Level
Graph Representation Learning [9.039193854524763]
本稿では,タスク非依存グラフ表現学習のためのアイソモルフィック-一貫性VGAE(IsoC-VGAE)を提案する。
まず、同型整合性を維持する理論的保証を提供するための復号法を考案する。
次に,逆グラフニューラルネットワーク(Inv-GNN)デコーダを直感的な実現法として提案する。
論文 参考訳(メタデータ) (2023-12-09T10:16:53Z) - GrannGAN: Graph annotation generative adversarial networks [72.66289932625742]
本稿では,高次元分布をモデル化し,グラフスケルトンと整合した複雑な関係特徴構造を持つデータの新しい例を生成することの問題点を考察する。
提案するモデルは,タスクを2つのフェーズに分割することで,各データポイントのグラフ構造に制約されたデータ特徴を生成する問題に対処する。
第一に、与えられたグラフのノードに関連する機能の分布をモデル化し、第二に、ノードのフィーチャに条件付きでエッジ機能を補完する。
論文 参考訳(メタデータ) (2022-12-01T11:49:07Z) - Deformable Graph Transformer [31.254872949603982]
本稿では動的にサンプリングされたキーと値のペアでスパースアテンションを行うDeformable Graph Transformer (DGT)を提案する。
実験により、我々の新しいグラフトランスフォーマーは既存のトランスフォーマーベースモデルより一貫して優れていることが示された。
論文 参考訳(メタデータ) (2022-06-29T00:23:25Z) - Similarity-aware Positive Instance Sampling for Graph Contrastive
Pre-training [82.68805025636165]
トレーニングセット内の既存グラフから直接正のグラフインスタンスを選択することを提案する。
私たちの選択は、特定のドメイン固有のペアワイズ類似度測定に基づいています。
さらに,ノードを動的にマスキングしてグラフ上に均等に分配する適応ノードレベルの事前学習手法を開発した。
論文 参考訳(メタデータ) (2022-06-23T20:12:51Z) - Permutation-Invariant Variational Autoencoder for Graph-Level
Representation Learning [0.0]
グラフ構造データに対する置換不変変分オートエンコーダを提案する。
本モデルは、特定のノード順序を強制することなく、入出力グラフのノード順序を間接的に学習する。
提案モデルの有効性を様々なグラフの再構築や生成タスクで実証する。
論文 参考訳(メタデータ) (2021-04-20T09:44:41Z) - Sequential Graph Convolutional Network for Active Learning [53.99104862192055]
逐次グラフ畳み込みネットワーク(GCN)を用いた新しいプールベースアクティブラーニングフレームワークを提案する。
少数のランダムなサンプル画像がシードラベル付き例であるので、グラフのパラメータを学習してラベル付きノードと非ラベル付きノードを区別する。
我々はGCNの特性を利用してラベル付けされたものと十分に異なる未ラベルの例を選択する。
論文 参考訳(メタデータ) (2020-06-18T00:55:10Z) - Permutation Invariant Graph Generation via Score-Based Generative
Modeling [114.12935776726606]
本稿では,最近のスコアベース生成モデルを用いて,グラフモデリングにおける置換不変手法を提案する。
特に、入力グラフにおけるデータ分布の勾配をモデル化するために、置換同変のマルチチャネルグラフニューラルネットワークを設計する。
グラフ生成では、我々の学習アプローチはベンチマークデータセット上の既存のモデルよりも良い、あるいは同等の結果を得る。
論文 参考訳(メタデータ) (2020-03-02T03:06:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。