論文の概要: Feature propagation as self-supervision signals on graphs
- arxiv url: http://arxiv.org/abs/2303.08644v2
- Date: Mon, 4 Sep 2023 10:13:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 06:15:11.242061
- Title: Feature propagation as self-supervision signals on graphs
- Title(参考訳): グラフ上の自己超越信号としての特徴伝播
- Authors: Oscar Pina and Ver\'onica Vilaplana
- Abstract要約: 正規化グラフ情報最大(RGI)は、ノードレベルの自己教師型学習のためのシンプルだが効果的なフレームワークである。
RGIは,その単純さに拘わらず,最先端のパフォーマンスを実現することができることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-supervised learning is gaining considerable attention as a solution to
avoid the requirement of extensive annotations in representation learning on
graphs. Current algorithms are based on contrastive learning, which is
computation an memory expensive, and the assumption of invariance under certain
graph augmentations. However, graph transformations such as edge sampling may
modify the semantics of the data so that the iinvariance assumption may be
incorrect. We introduce Regularized Graph Infomax (RGI), a simple yet effective
framework for node level self-supervised learning that trains a graph neural
network encoder by maximizing the mutual information between output node
embeddings and their propagation through the graph, which encode the nodes'
local and global context, respectively. RGI do not use graph data augmentations
but instead generates self-supervision signals with feature propagation, is
non-contrastive and does not depend on a two branch architecture. We run RGI on
both transductive and inductive settings with popular graph benchmarks and show
that it can achieve state-of-the-art performance regardless of its simplicity.
- Abstract(参考訳): グラフ表現学習における広範なアノテーションの必要性を回避するソリューションとして,自己教師付き学習が注目されている。
現在のアルゴリズムは、メモリコストの計算であるコントラスト学習と、あるグラフ拡張の下での不変性の仮定に基づいている。
しかし、エッジサンプリングのようなグラフ変換はデータのセマンティクスを変更して、等分散仮定が誤っている可能性がある。
本稿では,ノードの局所的およびグローバル的コンテキストをエンコードするグラフを通じて,出力ノード埋め込み間の相互情報を最大化することにより,グラフニューラルネットワークエンコーダを訓練する,ノードレベルの自己教師付き学習のための単純かつ効果的なフレームワークである正規化グラフインフォマックス(rgi)を提案する。
RGIはグラフデータ拡張を使用しず、代わりに特徴伝播を伴う自己超越信号を生成し、非競合性であり、2つの分岐アーキテクチャに依存しない。
一般的なグラフベンチマークでトランスダクティブとインダクティブの両方の設定でrgiを実行し、単純さに関わらず最先端のパフォーマンスを達成できることを示しています。
関連論文リスト
- Graph Contrastive Learning with Implicit Augmentations [36.57536688367965]
Inlicit Graph Contrastive Learning (iGCL)は、グラフトポロジ構造を再構築することにより、変分グラフオートエンコーダから学習した潜時空間の増大を利用する。
グラフレベルとノードレベルの両方のタスクに対する実験結果から,提案手法が最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2022-11-07T17:34:07Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Multi-Level Graph Contrastive Learning [38.022118893733804]
本稿では,グラフの空間ビューを対比することで,グラフデータの堅牢な表現を学習するためのマルチレベルグラフコントラスト学習(MLGCL)フレームワークを提案する。
元のグラフは1次近似構造であり、不確実性や誤りを含むが、符号化機能によって生成された$k$NNグラフは高次近接性を保持する。
MLGCLは、7つのデータセット上の既存の最先端グラフ表現学習法と比較して有望な結果が得られることを示す。
論文 参考訳(メタデータ) (2021-07-06T14:24:43Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - Co-embedding of Nodes and Edges with Graph Neural Networks [13.020745622327894]
グラフ埋め込みは、高次元および非ユークリッド特徴空間でデータ構造を変換しエンコードする方法である。
CensNetは一般的なグラフ埋め込みフレームワークで、ノードとエッジの両方を潜在機能空間に埋め込む。
提案手法は,4つのグラフ学習課題における最先端のパフォーマンスを達成または一致させる。
論文 参考訳(メタデータ) (2020-10-25T22:39:31Z) - Graph Contrastive Learning with Augmentations [109.23158429991298]
グラフデータの教師なし表現を学習するためのグラフコントラスト学習(GraphCL)フレームワークを提案する。
我々のフレームワークは、最先端の手法と比較して、類似またはより良い一般化可能性、転送可能性、堅牢性のグラフ表現を作成できることを示す。
論文 参考訳(メタデータ) (2020-10-22T20:13:43Z) - Sub-graph Contrast for Scalable Self-Supervised Graph Representation
Learning [21.0019144298605]
既存のグラフニューラルネットワークは、計算量やメモリコストが限られているため、完全なグラフデータで供給される。
textscSubg-Conは、中央ノードとそのサンプルサブグラフ間の強い相関を利用して、地域構造情報をキャプチャすることで提案される。
既存のグラフ表現学習アプローチと比較して、textscSubg-Conは、より弱い監視要件、モデル学習のスケーラビリティ、並列化において、顕著なパフォーマンス上のアドバンテージを持っています。
論文 参考訳(メタデータ) (2020-09-22T01:58:19Z) - Contrastive and Generative Graph Convolutional Networks for Graph-based
Semi-Supervised Learning [64.98816284854067]
グラフベースのSemi-Supervised Learning (SSL)は、少数のラベル付きデータのラベルをグラフ経由で残りの巨大なラベル付きデータに転送することを目的としている。
本稿では,データ類似性とグラフ構造を両立させ,監視信号の強化を図るため,新しいGCNベースのSSLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-15T13:59:28Z) - Unsupervised Hierarchical Graph Representation Learning by Mutual
Information Maximization [8.14036521415919]
教師なしグラフ表現学習法,Unsupervised Hierarchical Graph Representation (UHGR)を提案する。
本手法は,「ローカル」表現と「グローバル」表現の相互情報の最大化に焦点をあてる。
その結果,提案手法は,いくつかのベンチマークにおいて,最先端の教師付き手法に匹敵する結果が得られることがわかった。
論文 参考訳(メタデータ) (2020-03-18T18:21:48Z) - Unsupervised Graph Embedding via Adaptive Graph Learning [85.28555417981063]
グラフオートエンコーダ(GAE)は、グラフ埋め込みのための表現学習において強力なツールである。
本稿では,2つの新しい教師なしグラフ埋め込み法,適応グラフ学習(BAGE)による教師なしグラフ埋め込み,変分適応グラフ学習(VBAGE)による教師なしグラフ埋め込みを提案する。
いくつかのデータセットに関する実験的研究により、我々の手法がノードクラスタリング、ノード分類、グラフ可視化タスクにおいて、ベースラインよりも優れていることが実証された。
論文 参考訳(メタデータ) (2020-03-10T02:33:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。