論文の概要: Learning Network Representations with Disentangled Graph Auto-Encoder
- arxiv url: http://arxiv.org/abs/2402.01143v1
- Date: Fri, 2 Feb 2024 04:52:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 16:50:36.945474
- Title: Learning Network Representations with Disentangled Graph Auto-Encoder
- Title(参考訳): グラフオートエンコーダを用いたネットワーク表現の学習
- Authors: Di Fan, Chuanhou Gao
- Abstract要約: Disentangled Graph Auto-Encoder (DGA) と Disentangled Variational Graph Auto-Encoder (DVGA)
本稿では,DGA(Disentangled Graph Auto-Encoder)とDVGA(Disentangled Variational Graph Auto-Encoder)を紹介する。
本稿では,まず,複数チャネルのメッセージパッシング層を有する不整合グラフ畳み込みネットワークを設計し,各不整合潜在因子に関する情報を集約するエンコーダを設計し,その後,不整合グラフオートエンコーダの表現能力を高めるために,各チャネルにコンポーネントワイドフローを適用した。
- 参考スコア(独自算出の注目度): 1.9750912882697567
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The (variational) graph auto-encoder is extensively employed for learning
representations of graph-structured data. However, the formation of real-world
graphs is a complex and heterogeneous process influenced by latent factors.
Existing encoders are fundamentally holistic, neglecting the entanglement of
latent factors. This not only makes graph analysis tasks less effective but
also makes it harder to understand and explain the representations. Learning
disentangled graph representations with (variational) graph auto-encoder poses
significant challenges, and remains largely unexplored in the existing
literature. In this article, we introduce the Disentangled Graph Auto-Encoder
(DGA) and Disentangled Variational Graph Auto-Encoder (DVGA), approaches that
leverage generative models to learn disentangled representations. Specifically,
we first design a disentangled graph convolutional network with multi-channel
message-passing layers, as the encoder aggregating information related to each
disentangled latent factor. Subsequently, a component-wise flow is applied to
each channel to enhance the expressive capabilities of disentangled variational
graph auto-encoder. Additionally, we design a factor-wise decoder, considering
the characteristics of disentangled representations. In order to further
enhance the independence among representations, we introduce independence
constraints on mapping channels for different latent factors. Empirical
experiments on both synthetic and real-world datasets show the superiority of
our proposed method compared to several state-of-the-art baselines.
- Abstract(参考訳): 変分グラフオートエンコーダは、グラフ構造化データの表現の学習に広く用いられている。
しかし、実世界のグラフの形成は、潜在因子の影響を受け、複雑で不均一な過程である。
既存のエンコーダは基本的に全体論的であり、潜在因子の絡み合いを無視している。
これにより、グラフ分析タスクの効率が低下するだけでなく、表現の理解や説明が難しくなる。
グラフの自動エンコーダによる不連続グラフ表現の学習には大きな課題があり、既存の文献ではほとんど研究されていない。
本稿では,生成モデルを利用した不等角グラフ自動エンコーダ(dga)と不等角グラフ自動エンコーダ(dvga)について述べる。
具体的には,まず,マルチチャネルメッセージパッシング層を有する不等角グラフ畳み込みネットワークを,各不等角化潜在要因に関連する情報を集約するエンコーダとして設計する。
その後、各チャネルに成分流を印加し、非交叉変分グラフオートエンコーダの表現能力を向上する。
さらに,不整合表現の特性を考慮した因子的デコーダを設計する。
表現間の独立性をさらに高めるために,異なる潜伏要因のマッピングチャネルに独立性制約を導入する。
人工と実世界の両方のデータセットに関する実証実験は、いくつかの最先端ベースラインと比較して提案手法の優位性を示している。
関連論文リスト
- InstructG2I: Synthesizing Images from Multimodal Attributed Graphs [50.852150521561676]
InstructG2Iと呼ばれるグラフ文脈条件拡散モデルを提案する。
InstructG2Iはまずグラフ構造とマルチモーダル情報を利用して情報的隣人サンプリングを行う。
Graph-QFormerエンコーダは、グラフノードをグラフプロンプトの補助セットに適応的に符号化し、デノナイジングプロセスを導く。
論文 参考訳(メタデータ) (2024-10-09T17:56:15Z) - What Improves the Generalization of Graph Transformers? A Theoretical Dive into the Self-attention and Positional Encoding [67.59552859593985]
自己アテンションと位置エンコーディングを組み込んだグラフトランスフォーマーは、さまざまなグラフ学習タスクのための強力なアーキテクチャとして登場した。
本稿では,半教師付き分類のための浅いグラフ変換器の理論的検討について紹介する。
論文 参考訳(メタデータ) (2024-06-04T05:30:16Z) - Isomorphic-Consistent Variational Graph Auto-Encoders for Multi-Level
Graph Representation Learning [9.039193854524763]
本稿では,タスク非依存グラフ表現学習のためのアイソモルフィック-一貫性VGAE(IsoC-VGAE)を提案する。
まず、同型整合性を維持する理論的保証を提供するための復号法を考案する。
次に,逆グラフニューラルネットワーク(Inv-GNN)デコーダを直感的な実現法として提案する。
論文 参考訳(メタデータ) (2023-12-09T10:16:53Z) - Spectral Augmentations for Graph Contrastive Learning [50.149996923976836]
コントラスト学習は、監督の有無にかかわらず、表現を学習するための第一の方法として現れてきた。
近年の研究では、グラフ表現学習における事前学習の有用性が示されている。
本稿では,グラフの対照的な目的に対する拡張を構築する際に,候補のバンクを提供するためのグラフ変換操作を提案する。
論文 参考訳(メタデータ) (2023-02-06T16:26:29Z) - Latent Augmentation For Better Graph Self-Supervised Learning [20.082614919182692]
我々は、潜在的な拡張と強力なデコーダを備えた予測モデルは、対照的なモデルよりも同等またはそれ以上の表現力を達成することができると論じている。
Wiener Graph Deconvolutional Networkと呼ばれる新しいグラフデコーダは、拡張潜在表現から情報再構成を行うように設計されている。
論文 参考訳(メタデータ) (2022-06-26T17:41:59Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Multi-Level Graph Contrastive Learning [38.022118893733804]
本稿では,グラフの空間ビューを対比することで,グラフデータの堅牢な表現を学習するためのマルチレベルグラフコントラスト学習(MLGCL)フレームワークを提案する。
元のグラフは1次近似構造であり、不確実性や誤りを含むが、符号化機能によって生成された$k$NNグラフは高次近接性を保持する。
MLGCLは、7つのデータセット上の既存の最先端グラフ表現学習法と比較して有望な結果が得られることを示す。
論文 参考訳(メタデータ) (2021-07-06T14:24:43Z) - Learning Graphon Autoencoders for Generative Graph Modeling [91.32624399902755]
Graphonは任意のサイズでグラフを生成する非パラメトリックモデルであり、グラフから簡単に誘導できる。
解析可能でスケーラブルなグラフ生成モデルを構築するために,textitgraphon autoencoder という新しいフレームワークを提案する。
線形グルーポン分解モデルはデコーダとして機能し、潜在表現を活用して誘導されたグルーポンを再構成する。
論文 参考訳(メタデータ) (2021-05-29T08:11:40Z) - AEGCN: An Autoencoder-Constrained Graph Convolutional Network [5.023274927781062]
本稿では,オートエンコーダ制約付きグラフ畳み込みネットワークと呼ばれる新しいニューラルネットワークアーキテクチャを提案する。
このモデルのコアはグラフ上で直接動作する畳み込みネットワークであり、隠れた層はオートエンコーダによって制約される。
オートエンコーダの制約を追加することで,グラフ畳み込みネットワークの性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-07-03T16:42:55Z) - Graph-Aware Transformer: Is Attention All Graphs Need? [5.240000443825077]
GRaph-Aware Transformer (GRAT)はTransformerベースの最初のモデルであり、グラフ全体をエンドツーエンドでエンコードしデコードすることができる。
GRATはQM9ベンチマークで4つの回帰タスクに対する最先端のパフォーマンスを含む非常に有望な結果を示している。
論文 参考訳(メタデータ) (2020-06-09T12:13:56Z) - Auto-decoding Graphs [91.3755431537592]
生成モデルは、潜在コードからグラフを合成することを学ぶ自動デコーダである。
グラフは、おそらく接続パターンを特定するためにトレーニングされた自己アテンションモジュールを使用して合成される。
論文 参考訳(メタデータ) (2020-06-04T14:23:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。