論文の概要: RGI : Regularized Graph Infomax for self-supervised learning on graphs
- arxiv url: http://arxiv.org/abs/2303.08644v1
- Date: Wed, 15 Mar 2023 14:20:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 13:32:06.066403
- Title: RGI : Regularized Graph Infomax for self-supervised learning on graphs
- Title(参考訳): RGI : グラフ上の自己教師型学習のための正規化グラフ情報マックス
- Authors: Oscar Pina and Ver\'onica Vilaplana
- Abstract要約: グラフ上のノードレベルの自己教師型学習のためのフレームワークであるtextitRegularized Graph Infomax (RGI) を紹介する。
RGIはノードレベルのローカルビューとグローバルビューの相互情報を最大化することで、グラフニューラルネットワークエンコーダを訓練する。
RGIは,その単純さに拘わらず,最先端のパフォーマンスを実現することができることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-supervised learning is gaining considerable attention as a solution to
avoid the requirement of extensive annotations in representation learning on
graphs. We introduce \textit{Regularized Graph Infomax (RGI)}, a simple yet
effective framework for node level self-supervised learning on graphs that
trains a graph neural network encoder by maximizing the mutual information
between node level local and global views, in contrast to previous works that
employ graph level global views. The method promotes the predictability between
views while regularizing the covariance matrices of the representations.
Therefore, RGI is non-contrastive, does not depend on complex asymmetric
architectures nor training tricks, is augmentation-free and does not rely on a
two branch architecture. We run RGI on both transductive and inductive settings
with popular graph benchmarks and show that it can achieve state-of-the-art
performance regardless of its simplicity.
- Abstract(参考訳): グラフ表現学習における広範なアノテーションの必要性を回避するソリューションとして,自己教師付き学習が注目されている。
グラフレベルのグローバルビューを用いた従来の研究とは対照的に,ノードレベルのローカルビューとグローバルビューの相互情報を最大化することにより,グラフニューラルネットワークエンコーダをトレーニングするグラフ上でのノードレベルの自己教師型学習のための,シンプルかつ効果的なフレームワークである。
表現の共分散行列を規則化しながら、ビュー間の予測可能性を促進する。
したがって、RGIは非競合的であり、複雑な非対称アーキテクチャやトレーニングトリックに依存しず、拡張フリーであり、2つの分岐アーキテクチャに依存しない。
一般的なグラフベンチマークでトランスダクティブとインダクティブの両方の設定でrgiを実行し、単純さに関わらず最先端のパフォーマンスを達成できることを示しています。
関連論文リスト
- Graph Contrastive Learning with Implicit Augmentations [36.57536688367965]
Inlicit Graph Contrastive Learning (iGCL)は、グラフトポロジ構造を再構築することにより、変分グラフオートエンコーダから学習した潜時空間の増大を利用する。
グラフレベルとノードレベルの両方のタスクに対する実験結果から,提案手法が最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2022-11-07T17:34:07Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Multi-Level Graph Contrastive Learning [38.022118893733804]
本稿では,グラフの空間ビューを対比することで,グラフデータの堅牢な表現を学習するためのマルチレベルグラフコントラスト学習(MLGCL)フレームワークを提案する。
元のグラフは1次近似構造であり、不確実性や誤りを含むが、符号化機能によって生成された$k$NNグラフは高次近接性を保持する。
MLGCLは、7つのデータセット上の既存の最先端グラフ表現学習法と比較して有望な結果が得られることを示す。
論文 参考訳(メタデータ) (2021-07-06T14:24:43Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - Co-embedding of Nodes and Edges with Graph Neural Networks [13.020745622327894]
グラフ埋め込みは、高次元および非ユークリッド特徴空間でデータ構造を変換しエンコードする方法である。
CensNetは一般的なグラフ埋め込みフレームワークで、ノードとエッジの両方を潜在機能空間に埋め込む。
提案手法は,4つのグラフ学習課題における最先端のパフォーマンスを達成または一致させる。
論文 参考訳(メタデータ) (2020-10-25T22:39:31Z) - Graph Contrastive Learning with Augmentations [109.23158429991298]
グラフデータの教師なし表現を学習するためのグラフコントラスト学習(GraphCL)フレームワークを提案する。
我々のフレームワークは、最先端の手法と比較して、類似またはより良い一般化可能性、転送可能性、堅牢性のグラフ表現を作成できることを示す。
論文 参考訳(メタデータ) (2020-10-22T20:13:43Z) - Sub-graph Contrast for Scalable Self-Supervised Graph Representation
Learning [21.0019144298605]
既存のグラフニューラルネットワークは、計算量やメモリコストが限られているため、完全なグラフデータで供給される。
textscSubg-Conは、中央ノードとそのサンプルサブグラフ間の強い相関を利用して、地域構造情報をキャプチャすることで提案される。
既存のグラフ表現学習アプローチと比較して、textscSubg-Conは、より弱い監視要件、モデル学習のスケーラビリティ、並列化において、顕著なパフォーマンス上のアドバンテージを持っています。
論文 参考訳(メタデータ) (2020-09-22T01:58:19Z) - Contrastive and Generative Graph Convolutional Networks for Graph-based
Semi-Supervised Learning [64.98816284854067]
グラフベースのSemi-Supervised Learning (SSL)は、少数のラベル付きデータのラベルをグラフ経由で残りの巨大なラベル付きデータに転送することを目的としている。
本稿では,データ類似性とグラフ構造を両立させ,監視信号の強化を図るため,新しいGCNベースのSSLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-15T13:59:28Z) - Unsupervised Hierarchical Graph Representation Learning by Mutual
Information Maximization [8.14036521415919]
教師なしグラフ表現学習法,Unsupervised Hierarchical Graph Representation (UHGR)を提案する。
本手法は,「ローカル」表現と「グローバル」表現の相互情報の最大化に焦点をあてる。
その結果,提案手法は,いくつかのベンチマークにおいて,最先端の教師付き手法に匹敵する結果が得られることがわかった。
論文 参考訳(メタデータ) (2020-03-18T18:21:48Z) - Unsupervised Graph Embedding via Adaptive Graph Learning [85.28555417981063]
グラフオートエンコーダ(GAE)は、グラフ埋め込みのための表現学習において強力なツールである。
本稿では,2つの新しい教師なしグラフ埋め込み法,適応グラフ学習(BAGE)による教師なしグラフ埋め込み,変分適応グラフ学習(VBAGE)による教師なしグラフ埋め込みを提案する。
いくつかのデータセットに関する実験的研究により、我々の手法がノードクラスタリング、ノード分類、グラフ可視化タスクにおいて、ベースラインよりも優れていることが実証された。
論文 参考訳(メタデータ) (2020-03-10T02:33:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。