論文の概要: Recovering Barab\'asi-Albert Parameters of Graphs through
Disentanglement
- arxiv url: http://arxiv.org/abs/2105.00997v2
- Date: Tue, 4 May 2021 10:40:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-05 10:48:24.931746
- Title: Recovering Barab\'asi-Albert Parameters of Graphs through
Disentanglement
- Title(参考訳): 交絡によるグラフのバラブ・アシ・アルベルトパラメータの復元
- Authors: Cristina Guzman, Daphna Keidar, Tristan Meynier, Andreas Opedal,
Niklas Stoehr
- Abstract要約: ErdHos R'enyi (ER)ランダムグラフやBarab'asi-Albert (BA)グラフのようなグラフモデリングアプローチは、現実のグラフの性質を解釈可能な方法で再現することを目的としている。
Stoehrらによる以前の作品。
グラフデータから生成プロセスを学び、これらの問題に対処します。
BAグラフの生成パラメータを$beta$-VAEデコーダをシーケンシャルに置き換えることに重点を置いています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Classical graph modeling approaches such as Erd\H{o}s R\'{e}nyi (ER) random
graphs or Barab\'asi-Albert (BA) graphs, here referred to as stylized models,
aim to reproduce properties of real-world graphs in an interpretable way. While
useful, graph generation with stylized models requires domain knowledge and
iterative trial and error simulation. Previous work by Stoehr et al. (2019)
addresses these issues by learning the generation process from graph data,
using a disentanglement-focused deep autoencoding framework, more specifically,
a $\beta$-Variational Autoencoder ($\beta$-VAE). While they successfully
recover the generative parameters of ER graphs through the model's latent
variables, their model performs badly on sequentially generated graphs such as
BA graphs, due to their oversimplified decoder. We focus on recovering the
generative parameters of BA graphs by replacing their $\beta$-VAE decoder with
a sequential one. We first learn the generative BA parameters in a supervised
fashion using a Graph Neural Network (GNN) and a Random Forest Regressor, by
minimizing the squared loss between the true generative parameters and the
latent variables. Next, we train a $\beta$-VAE model, combining the GNN encoder
from the first stage with an LSTM-based decoder with a customized loss.
- Abstract(参考訳): Erd\H{o}s R\'{e}nyi (ER) ランダムグラフやBarab\'asi-Albert (BA) グラフのような古典的なグラフモデリングアプローチは、スタイリングされたモデルと呼ばれ、解釈可能な方法で現実世界のグラフの性質を再現することを目的としている。
有用なのですが、スタイリッシュなモデルによるグラフ生成にはドメイン知識と反復試行とエラーシミュレーションが必要です。
Stoehrらによる以前の作品。
(2019) はグラフデータから生成過程を学習し、より具体的には$\beta$-Variational Autoencoder($\beta$-VAE)というディスタングルにフォーカスしたディープオートエンコーディングフレームワークを用いて、これらの問題に対処する。
彼らはモデルの潜伏変数を通してERグラフの生成パラメータを復元することに成功したが、そのモデルは過度に単純化されたデコーダのためにBAグラフのような逐次的に生成されたグラフで著しく機能する。
我々は、$\beta$-vaeデコーダをシーケンシャルに置き換えることで、baグラフの生成パラメータの回復にフォーカスする。
まず,グラフニューラルネットワーク (GNN) とランダムフォレスト回帰器 (Random Forest Regressor) を用いて生成BAパラメータを教師付きで学習し,真の生成パラメータと潜伏変数の2乗損失を最小化する。
次に、最初の段階からgnnエンコーダとlstmベースのデコーダとを組み合わせることで、$\beta$-vaeモデルをトレーニングします。
関連論文リスト
- GraphGPT: Graph Learning with Generative Pre-trained Transformers [9.862004020075126]
自己教師型生成事前学習変換器によるグラフ学習の新しいモデルである textitGraphGPT を紹介する。
我々のモデルでは,各グラフやサンプリングされたサブグラフを,ノード,エッジ,属性を表すトークン列に変換する。
生成前トレーニングにより、パフォーマンスを継続的に向上させることなく、最大4M以上のパラメータをGraphGPTでトレーニングすることが可能になります。
論文 参考訳(メタデータ) (2023-12-31T16:19:30Z) - Deep Prompt Tuning for Graph Transformers [55.2480439325792]
ファインチューニングはリソース集約型であり、大きなモデルのコピーを複数保存する必要がある。
ファインチューニングの代替として,ディープグラフプロンプトチューニングと呼ばれる新しい手法を提案する。
事前学習したパラメータを凍結し、追加したトークンのみを更新することにより、フリーパラメータの数を減らし、複数のモデルコピーを不要にする。
論文 参考訳(メタデータ) (2023-09-18T20:12:17Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Learning Graphon Autoencoders for Generative Graph Modeling [91.32624399902755]
Graphonは任意のサイズでグラフを生成する非パラメトリックモデルであり、グラフから簡単に誘導できる。
解析可能でスケーラブルなグラフ生成モデルを構築するために,textitgraphon autoencoder という新しいフレームワークを提案する。
線形グルーポン分解モデルはデコーダとして機能し、潜在表現を活用して誘導されたグルーポンを再構成する。
論文 参考訳(メタデータ) (2021-05-29T08:11:40Z) - Dirichlet Graph Variational Autoencoder [65.94744123832338]
本稿では,グラフクラスタメンバシップを潜在因子とするDGVAE(Dirichlet Graph Variational Autoencoder)を提案する。
バランスグラフカットにおける低パス特性により、入力グラフをクラスタメンバシップにエンコードする、Heattsと呼ばれるGNNの新しい変種を提案する。
論文 参考訳(メタデータ) (2020-10-09T07:35:26Z) - Scalable Deep Generative Modeling for Sparse Graphs [105.60961114312686]
既存のディープニューラルネットワーク手法では、隣接行列を構築することで、$Omega(n2)$複雑さを必要とする。
我々は,この空間を利用して完全隣接行列を生成する新しい自己回帰モデルBiGGを開発した。
トレーニング中、この自己回帰モデルは$O(log n)$同期ステージで並列化できる。
論文 参考訳(メタデータ) (2020-06-28T04:37:57Z) - SHADOWCAST: Controllable Graph Generation [28.839854765853953]
生成過程におけるグラフ属性の制御として定式化された制御可能なグラフ生成問題を導入し,所望のグラフを生成する。
この生成プロセスを導くために透明で直接的なマルコフモデルを使用することで、実践者は生成されたグラフを形作り、理解することができる。
グラフ構造が異なる仮説シナリオを生成するために,$rm S Small HADOWCsmall AST$を指示することで,その効果的な制御性を示す。
論文 参考訳(メタデータ) (2020-06-06T03:43:19Z) - Graph Deconvolutional Generation [3.5138314002170192]
我々は、Erdos-Renyiランダムグラフモデルの現代の等価性、すなわちグラフ変分オートエンコーダ(GVAE)に焦点を当てる。
GVAEは、トレーニング分布のマッチングが困難であり、高価なグラフマッチング手順に依存している。
我々は、GVAEのエンコーダとデコーダにメッセージパッシングニューラルネットワークを構築することにより、このモデルのクラスを改善した。
論文 参考訳(メタデータ) (2020-02-14T04:37:14Z) - Revisiting Graph based Collaborative Filtering: A Linear Residual Graph
Convolutional Network Approach [55.44107800525776]
グラフ畳み込みネットワーク(GCN)は、最先端のグラフベースの表現学習モデルである。
本稿では、GCNベースの協調フィルタリング(CF)ベースのレコメンダシステム(RS)について再検討する。
単純なグラフ畳み込みネットワークの理論と整合して,非線形性を取り除くことで推奨性能が向上することを示す。
本稿では,ユーザ・イテム相互作用モデリングを用いたCF用に特別に設計された残差ネットワーク構造を提案する。
論文 参考訳(メタデータ) (2020-01-28T04:41:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。