論文の概要: Revisiting and Benchmarking Graph Autoencoders: A Contrastive Learning Perspective
- arxiv url: http://arxiv.org/abs/2410.10241v1
- Date: Mon, 14 Oct 2024 07:59:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-30 02:14:55.169530
- Title: Revisiting and Benchmarking Graph Autoencoders: A Contrastive Learning Perspective
- Title(参考訳): グラフオートエンコーダの再検討とベンチマーク:対照的な学習の視点
- Authors: Jintang Li, Ruofan Wu, Yuchang Zhu, Huizhe Zhang, Xinzhou Jin, Guibin Zhang, Zulun Zhu, Zibin Zheng, Liang Chen,
- Abstract要約: グラフオートエンコーダ(GAE)は、グラフ構造化データの意味のある表現を学習できる自己教師型学習モデルである。
コントラスト学習の原則を利用して意味のある表現を学習する汎用的で強力なGAEフレームワークであるlrGAEを紹介する。
- 参考スコア(独自算出の注目度): 28.152560472541143
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph autoencoders (GAEs) are self-supervised learning models that can learn meaningful representations of graph-structured data by reconstructing the input graph from a low-dimensional latent space. Over the past few years, GAEs have gained significant attention in academia and industry. In particular, the recent advent of GAEs with masked autoencoding schemes marks a significant advancement in graph self-supervised learning research. While numerous GAEs have been proposed, the underlying mechanisms of GAEs are not well understood, and a comprehensive benchmark for GAEs is still lacking. In this work, we bridge the gap between GAEs and contrastive learning by establishing conceptual and methodological connections. We revisit the GAEs studied in previous works and demonstrate how contrastive learning principles can be applied to GAEs. Motivated by these insights, we introduce lrGAE (left-right GAE), a general and powerful GAE framework that leverages contrastive learning principles to learn meaningful representations. Our proposed lrGAE not only facilitates a deeper understanding of GAEs but also sets a new benchmark for GAEs across diverse graph-based learning tasks. The source code for lrGAE, including the baselines and all the code for reproducing the results, is publicly available at https://github.com/EdisonLeeeee/lrGAE.
- Abstract(参考訳): グラフオートエンコーダ(GAE)は、低次元の潜在空間から入力グラフを再構成することにより、グラフ構造化データの意味のある表現を学習できる自己教師型学習モデルである。
過去数年間、GAEは学術と産業で大きな注目を集めてきた。
特に、マスク付き自動符号化方式によるGAEの近年の出現は、グラフ自己教師型学習研究において大きな進歩を見せている。
多数のGAEが提案されているが、基礎となるGAEのメカニズムはよく理解されておらず、GAEの包括的なベンチマークはいまだに欠落している。
本研究では,GAEとコントラスト学習のギャップを,概念的および方法論的つながりを確立することによって埋める。
我々は,従来の研究で研究されたGAEを再考し,GAEにいかに対照的な学習原則を適用できるかを実証する。
これらの知見に触発されて、コントラスト学習の原則を活用して意味のある表現を学習する汎用的で強力なGAEフレームワークであるlrGAE(left-right GAE)を紹介した。
提案したlrGAEは,GAEの理解を深めるだけでなく,多様なグラフベースの学習タスクにまたがるGAEのベンチマークを新たに設定する。
lrGAEのソースコードは、ベースラインと結果の再生のためのすべてのコードを含み、https://github.com/EdisonLeeeee/lrGAEで公開されている。
関連論文リスト
- SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - Graph Contrastive Learning with Generative Adversarial Network [35.564028359355596]
グラフ生成逆数ネットワーク(GAN)はグラフコントラスト学習(GCL)のためのビューの分布を学習する
本稿では,グラフ表現学習のためのジェネレーティブ・コントラスト学習ネットワークであるGACNを提案する。
GACNはGCLの高品質な拡張ビューを生成することができ、12の最先端のベースライン手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-01T13:28:24Z) - New Frontiers in Graph Autoencoders: Joint Community Detection and Link
Prediction [27.570978996576503]
リンク予測(LP)の強力な方法として,グラフオートエンコーダ(GAE)と変分グラフオートエンコーダ(VGAE)が登場した。
特にノード機能がない場合、GAEとVGAEでCDをどの程度改善できるかは不明である。
これら2つのタスクを高い精度で共同で処理することは可能であることを示す。
論文 参考訳(メタデータ) (2022-11-16T15:26:56Z) - Let Invariant Rationale Discovery Inspire Graph Contrastive Learning [98.10268114789775]
ハイパフォーマンスな拡張は、インスタンス識別に関するアンカーグラフの健全な意味を保存すべきである。
新たなフレームワーク Rationale-aware Graph Contrastive Learning (RGCL) を提案する。
RGCLは有理数生成器を使用して、グラフのインスタンス識別に関する健全な特徴を論理として明らかにし、対照的な学習のための有理数認識ビューを生成する。
論文 参考訳(メタデータ) (2022-06-16T01:28:40Z) - GraphMAE: Self-Supervised Masked Graph Autoencoders [52.06140191214428]
本稿では,自己教師付きグラフ学習における課題を軽減するマスク付きグラフオートエンコーダGraphMAEを提案する。
我々は3つの異なるグラフ学習タスクに対して、21の公開データセットに関する広範な実験を行った。
その結果,GraphMAEはグラフオートエンコーダであり,設計に注意を払っている。
論文 参考訳(メタデータ) (2022-05-22T11:57:08Z) - What's Behind the Mask: Understanding Masked Graph Modeling for Graph
Autoencoders [32.42097625708298]
MaskGAEはグラフ構造化データのための自己教師型学習フレームワークである。
MGMは原則化されたプリテキストタスクであり、エッジの一部を隠蔽し、部分的に可視で、マスキングされていないグラフ構造で欠落した部分を再構築しようとする。
我々は,GAEとコントラスト学習の密接な関係を確立し,MGMがGAEの自己教師型学習方式を大幅に改善することを示す。
論文 参考訳(メタデータ) (2022-05-20T09:45:57Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - Graph Learning based Recommender Systems: A Review [111.43249652335555]
グラフ学習ベースのレコメンダーシステム(GLRS)は、高度なグラフ学習アプローチを使用して、ユーザーの好みと意図、および推奨項目の特性をモデル化します。
本稿では,グラフに基づく表現から重要な知識を抽出し,レコメンデーションの正確性,信頼性,説明性を向上する方法について論じることにより,GLRSの体系的なレビューを行う。
論文 参考訳(メタデータ) (2021-05-13T14:50:45Z) - Deepened Graph Auto-Encoders Help Stabilize and Enhance Link Prediction [11.927046591097623]
リンク予測は、浅層グラフオートエンコーダ(GAE)アーキテクチャの1層または2層に基づく現在の最先端モデルを用いて、比較的未研究のグラフ学習タスクである。
本論文では,浅いGAEと変動GAEしか使用できないリンク予測の現在の手法の限界に対処することに焦点をあてる。
提案手法はGAEのアーキテクチャに標準オートエンコーダ(AE)を革新的に組み込んでおり、標準AEは隣接情報とノード機能をシームレスに統合することで必要不可欠な低次元表現を学習する。
論文 参考訳(メタデータ) (2021-03-21T14:43:10Z) - Embedding Graph Auto-Encoder for Graph Clustering [90.8576971748142]
グラフ自動エンコーダ(GAE)モデルは、半教師付きグラフ畳み込みネットワーク(GCN)に基づく
我々は、グラフクラスタリングのための特定のGAEベースのモデルを設計し、その理論、すなわち、埋め込みグラフオートエンコーダ(EGAE)と整合する。
EGAEは1つのエンコーダと2つのデコーダで構成される。
論文 参考訳(メタデータ) (2020-02-20T09:53:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。