論文の概要: MaskGAE: Masked Graph Modeling Meets Graph Autoencoders
- arxiv url: http://arxiv.org/abs/2205.10053v1
- Date: Fri, 20 May 2022 09:45:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-23 13:34:26.523978
- Title: MaskGAE: Masked Graph Modeling Meets Graph Autoencoders
- Title(参考訳): MaskGAE: Masked Graph Modelingがグラフオートエンコーダをサポート
- Authors: Jintang Li, Ruofan Wu, Wangbin Sun, Liang Chen, Sheng Tian, Liang Zhu,
Changhua Meng, Zibin Zheng, Weiqiang Wang
- Abstract要約: MaskGAEはグラフ構造化データの自己教師型学習フレームワークである。
我々は、MaskGAEの利点を正当化するための理論的および実証的な証拠を提供する。
- 参考スコア(独自算出の注目度): 32.42097625708298
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present masked graph autoencoder (MaskGAE), a self-supervised learning
framework for graph-structured data. Different from previous graph autoencoders
(GAEs), MaskGAE adopts masked graph modeling (MGM) as a principled pretext
task: masking a portion of edges and attempting to reconstruct the missing part
with partially visible, unmasked graph structure. To understand whether MGM can
help GAEs learn better representations, we provide both theoretical and
empirical evidence to justify the benefits of this pretext task. Theoretically,
we establish the connections between GAEs and contrastive learning, showing
that MGM significantly improves the self-supervised learning scheme of GAEs.
Empirically, we conduct extensive experiments on a number of benchmark
datasets, demonstrating the superiority of MaskGAE over several
state-of-the-arts on both link prediction and node classification tasks. Our
code is publicly available at \url{https://github.com/EdisonLeeeee/MaskGAE}.
- Abstract(参考訳): 本稿では,グラフ構造化データの自己教師型学習フレームワークMaskGAEを提案する。
従来のグラフオートエンコーダ(GAE)とは異なり、MaskGAEはマスク付きグラフモデリング(MGM)を、エッジの一部をマスキングし、部分的に可視で、マスキングされていないグラフ構造で欠落部分を再構築しようとする、原則付きプリテキストタスクとして採用している。
MGMがGAEのより良い表現を学べるかどうかを理解するために、この前提課題の利点を正当化するための理論的および実証的な証拠を提供する。
理論的には、GAEとコントラスト学習の関連性を確立し、MGMがGAEの自己教師型学習方式を大幅に改善することを示す。
実験的に,多数のベンチマークデータセットに対して広範な実験を行い,リンク予測とノード分類のタスクに関するいくつかの最先端技術に対して,MaskGAEの優位性を実証した。
我々のコードは \url{https://github.com/EdisonLeeeee/MaskGAE} で公開されている。
関連論文リスト
- Rethinking Graph Masked Autoencoders through Alignment and Uniformity [26.86368034133612]
グラフ上の自己教師付き学習は、対照的で生成的な方法に分岐することができる。
グラフマスク付きオートエンコーダ(GraphMAE)の最近の出現は、生成法の背後にあるモーメントを回復させる。
論文 参考訳(メタデータ) (2024-02-11T15:21:08Z) - Generative and Contrastive Paradigms Are Complementary for Graph
Self-Supervised Learning [56.45977379288308]
Masked Autoencoder (MAE)は、マスク付きグラフエッジやノード機能の再構築を学ぶ。
Contrastive Learning (CL)は、同じグラフの拡張ビュー間の類似性を最大化する。
我々は,MAE と CL を統一するグラフコントラッシブマスク付きオートエンコーダ (GCMAE) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-24T05:06:06Z) - Rethinking Tokenizer and Decoder in Masked Graph Modeling for Molecules [81.05116895430375]
マスク付きグラフモデリングは、分子グラフの自己教師付き表現学習において優れている。
サブグラフレベルのトークン化器とremaskデコーディングを備えた十分表現力のあるデコーダがエンコーダの表現学習に大きな影響を与えることを示す。
我々は,単純なGNNベースのTokenizer(SGT)と効果的な復号化戦略を備えた,新しいMGM手法SimSGTを提案する。
論文 参考訳(メタデータ) (2023-10-23T09:40:30Z) - GiGaMAE: Generalizable Graph Masked Autoencoder via Collaborative Latent
Space Reconstruction [76.35904458027694]
マスク付きオートエンコーダモデルは、グラフデータに対する優れた一般化能力に欠ける。
本稿では,GiGaMAEと呼ばれる新しいグラフマスマスキングオートエンコーダフレームワークを提案する。
私たちの結果は、グラフ構造化データに基づく基礎モデルの設計に光を当てます。
論文 参考訳(メタデータ) (2023-08-18T16:30:51Z) - GraphMAE: Self-Supervised Masked Graph Autoencoders [52.06140191214428]
本稿では,自己教師付きグラフ学習における課題を軽減するマスク付きグラフオートエンコーダGraphMAEを提案する。
我々は3つの異なるグラフ学習タスクに対して、21の公開データセットに関する広範な実験を行った。
その結果,GraphMAEはグラフオートエンコーダであり,設計に注意を払っている。
論文 参考訳(メタデータ) (2022-05-22T11:57:08Z) - MGAE: Masked Autoencoders for Self-Supervised Learning on Graphs [55.66953093401889]
Masked Graph Autoencoder (MGAE) フレームワークは、グラフ構造データの効果的な学習を行う。
自己指導型学習から洞察を得て、私たちはランダムに大量のエッジを隠蔽し、トレーニング中に欠落したエッジを再構築しようとします。
論文 参考訳(メタデータ) (2022-01-07T16:48:07Z) - Unsupervised Graph Embedding via Adaptive Graph Learning [85.28555417981063]
グラフオートエンコーダ(GAE)は、グラフ埋め込みのための表現学習において強力なツールである。
本稿では,2つの新しい教師なしグラフ埋め込み法,適応グラフ学習(BAGE)による教師なしグラフ埋め込み,変分適応グラフ学習(VBAGE)による教師なしグラフ埋め込みを提案する。
いくつかのデータセットに関する実験的研究により、我々の手法がノードクラスタリング、ノード分類、グラフ可視化タスクにおいて、ベースラインよりも優れていることが実証された。
論文 参考訳(メタデータ) (2020-03-10T02:33:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。