論文の概要: Revisiting and Benchmarking Graph Autoencoders: A Contrastive Learning Perspective
- arxiv url: http://arxiv.org/abs/2410.10241v1
- Date: Mon, 14 Oct 2024 07:59:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-30 02:14:55.169530
- Title: Revisiting and Benchmarking Graph Autoencoders: A Contrastive Learning Perspective
- Title(参考訳): グラフオートエンコーダの再検討とベンチマーク:対照的な学習の視点
- Authors: Jintang Li, Ruofan Wu, Yuchang Zhu, Huizhe Zhang, Xinzhou Jin, Guibin Zhang, Zulun Zhu, Zibin Zheng, Liang Chen,
- Abstract要約: グラフオートエンコーダ(GAE)は、グラフ構造化データの意味のある表現を学習できる自己教師型学習モデルである。
コントラスト学習の原則を利用して意味のある表現を学習する汎用的で強力なGAEフレームワークであるlrGAEを紹介する。
- 参考スコア(独自算出の注目度): 28.152560472541143
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph autoencoders (GAEs) are self-supervised learning models that can learn meaningful representations of graph-structured data by reconstructing the input graph from a low-dimensional latent space. Over the past few years, GAEs have gained significant attention in academia and industry. In particular, the recent advent of GAEs with masked autoencoding schemes marks a significant advancement in graph self-supervised learning research. While numerous GAEs have been proposed, the underlying mechanisms of GAEs are not well understood, and a comprehensive benchmark for GAEs is still lacking. In this work, we bridge the gap between GAEs and contrastive learning by establishing conceptual and methodological connections. We revisit the GAEs studied in previous works and demonstrate how contrastive learning principles can be applied to GAEs. Motivated by these insights, we introduce lrGAE (left-right GAE), a general and powerful GAE framework that leverages contrastive learning principles to learn meaningful representations. Our proposed lrGAE not only facilitates a deeper understanding of GAEs but also sets a new benchmark for GAEs across diverse graph-based learning tasks. The source code for lrGAE, including the baselines and all the code for reproducing the results, is publicly available at https://github.com/EdisonLeeeee/lrGAE.
- Abstract(参考訳): グラフオートエンコーダ(GAE)は、低次元の潜在空間から入力グラフを再構成することにより、グラフ構造化データの意味のある表現を学習できる自己教師型学習モデルである。
過去数年間、GAEは学術と産業で大きな注目を集めてきた。
特に、マスク付き自動符号化方式によるGAEの近年の出現は、グラフ自己教師型学習研究において大きな進歩を見せている。
多数のGAEが提案されているが、基礎となるGAEのメカニズムはよく理解されておらず、GAEの包括的なベンチマークはいまだに欠落している。
本研究では,GAEとコントラスト学習のギャップを,概念的および方法論的つながりを確立することによって埋める。
我々は,従来の研究で研究されたGAEを再考し,GAEにいかに対照的な学習原則を適用できるかを実証する。
これらの知見に触発されて、コントラスト学習の原則を活用して意味のある表現を学習する汎用的で強力なGAEフレームワークであるlrGAE(left-right GAE)を紹介した。
提案したlrGAEは,GAEの理解を深めるだけでなく,多様なグラフベースの学習タスクにまたがるGAEのベンチマークを新たに設定する。
lrGAEのソースコードは、ベースラインと結果の再生のためのすべてのコードを含み、https://github.com/EdisonLeeeee/lrGAEで公開されている。
関連論文リスト
- Retrieval-Augmented Generation with Graphs (GraphRAG) [84.29507404866257]
Retrieval-augmented Generation (RAG) は、追加情報を取得することによって下流タスクの実行を向上させる強力な技術である。
グラフは、その固有の「エッジで接続されたノード」の性質により、巨大な異種情報と関係情報を符号化する。
従来のRAGとは異なり、多種多様な形式とドメイン固有の関係知識のようなグラフ構造化データのユニークさは、異なるドメインでGraphRAGを設計する際、ユニークで重要な課題を生じさせる。
論文 参考訳(メタデータ) (2024-12-31T06:59:35Z) - Graph Structure Refinement with Energy-based Contrastive Learning [56.957793274727514]
グラフの構造と表現を学習するための生成訓練と識別訓練のジョイントに基づく教師なし手法を提案する。
本稿では,ECL-GSR(Energy-based Contrastive Learning)によるグラフ構造再構成(GSR)フレームワークを提案する。
ECL-GSRは、主要なベースラインに対するサンプルやメモリの少ない高速なトレーニングを実現し、下流タスクの単純さと効率性を強調している。
論文 参考訳(メタデータ) (2024-12-20T04:05:09Z) - GNN-Transformer Cooperative Architecture for Trustworthy Graph Contrastive Learning [20.54767504966887]
グラフ表現学習(GCL)は、グラフ表現学習の分野でホットな話題となっている。
本稿では,信頼できるグラフコントラスト学習のためのGNN変換器協調アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-12-18T09:20:12Z) - Graph Contrastive Learning with Generative Adversarial Network [35.564028359355596]
グラフ生成逆数ネットワーク(GAN)はグラフコントラスト学習(GCL)のためのビューの分布を学習する
本稿では,グラフ表現学習のためのジェネレーティブ・コントラスト学習ネットワークであるGACNを提案する。
GACNはGCLの高品質な拡張ビューを生成することができ、12の最先端のベースライン手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-01T13:28:24Z) - Let Invariant Rationale Discovery Inspire Graph Contrastive Learning [98.10268114789775]
ハイパフォーマンスな拡張は、インスタンス識別に関するアンカーグラフの健全な意味を保存すべきである。
新たなフレームワーク Rationale-aware Graph Contrastive Learning (RGCL) を提案する。
RGCLは有理数生成器を使用して、グラフのインスタンス識別に関する健全な特徴を論理として明らかにし、対照的な学習のための有理数認識ビューを生成する。
論文 参考訳(メタデータ) (2022-06-16T01:28:40Z) - GraphMAE: Self-Supervised Masked Graph Autoencoders [52.06140191214428]
本稿では,自己教師付きグラフ学習における課題を軽減するマスク付きグラフオートエンコーダGraphMAEを提案する。
我々は3つの異なるグラフ学習タスクに対して、21の公開データセットに関する広範な実験を行った。
その結果,GraphMAEはグラフオートエンコーダであり,設計に注意を払っている。
論文 参考訳(メタデータ) (2022-05-22T11:57:08Z) - What's Behind the Mask: Understanding Masked Graph Modeling for Graph
Autoencoders [32.42097625708298]
MaskGAEはグラフ構造化データのための自己教師型学習フレームワークである。
MGMは原則化されたプリテキストタスクであり、エッジの一部を隠蔽し、部分的に可視で、マスキングされていないグラフ構造で欠落した部分を再構築しようとする。
我々は,GAEとコントラスト学習の密接な関係を確立し,MGMがGAEの自己教師型学習方式を大幅に改善することを示す。
論文 参考訳(メタデータ) (2022-05-20T09:45:57Z) - Graph Learning based Recommender Systems: A Review [111.43249652335555]
グラフ学習ベースのレコメンダーシステム(GLRS)は、高度なグラフ学習アプローチを使用して、ユーザーの好みと意図、および推奨項目の特性をモデル化します。
本稿では,グラフに基づく表現から重要な知識を抽出し,レコメンデーションの正確性,信頼性,説明性を向上する方法について論じることにより,GLRSの体系的なレビューを行う。
論文 参考訳(メタデータ) (2021-05-13T14:50:45Z) - Deepened Graph Auto-Encoders Help Stabilize and Enhance Link Prediction [11.927046591097623]
リンク予測は、浅層グラフオートエンコーダ(GAE)アーキテクチャの1層または2層に基づく現在の最先端モデルを用いて、比較的未研究のグラフ学習タスクである。
本論文では,浅いGAEと変動GAEしか使用できないリンク予測の現在の手法の限界に対処することに焦点をあてる。
提案手法はGAEのアーキテクチャに標準オートエンコーダ(AE)を革新的に組み込んでおり、標準AEは隣接情報とノード機能をシームレスに統合することで必要不可欠な低次元表現を学習する。
論文 参考訳(メタデータ) (2021-03-21T14:43:10Z) - Embedding Graph Auto-Encoder for Graph Clustering [90.8576971748142]
グラフ自動エンコーダ(GAE)モデルは、半教師付きグラフ畳み込みネットワーク(GCN)に基づく
我々は、グラフクラスタリングのための特定のGAEベースのモデルを設計し、その理論、すなわち、埋め込みグラフオートエンコーダ(EGAE)と整合する。
EGAEは1つのエンコーダと2つのデコーダで構成される。
論文 参考訳(メタデータ) (2020-02-20T09:53:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。