論文の概要: Learning Graph Augmentations to Learn Graph Representations
- arxiv url: http://arxiv.org/abs/2201.09830v1
- Date: Mon, 24 Jan 2022 17:50:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-25 18:51:58.944391
- Title: Learning Graph Augmentations to Learn Graph Representations
- Title(参考訳): グラフ表現を学ぶための学習グラフ拡張
- Authors: Kaveh Hassani and Amir Hosein Khasahmadi
- Abstract要約: LG2ARはエンドツーエンドの自動グラフ拡張フレームワークである。
エンコーダはノードレベルとグラフレベルの両方で一般化可能な表現を学ぶのに役立つ。
20のグラフレベルとノードレベルのベンチマークのうち18で、最先端の結果が得られます。
- 参考スコア(独自算出の注目度): 13.401746329218017
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Devising augmentations for graph contrastive learning is challenging due to
their irregular structure, drastic distribution shifts, and nonequivalent
feature spaces across datasets. We introduce LG2AR, Learning Graph
Augmentations to Learn Graph Representations, which is an end-to-end automatic
graph augmentation framework that helps encoders learn generalizable
representations on both node and graph levels. LG2AR consists of a
probabilistic policy that learns a distribution over augmentations and a set of
probabilistic augmentation heads that learn distributions over augmentation
parameters. We show that LG2AR achieves state-of-the-art results on 18 out of
20 graph-level and node-level benchmarks compared to previous unsupervised
models under both linear and semi-supervised evaluation protocols. The source
code will be released here: https://github.com/kavehhassani/lg2ar
- Abstract(参考訳): グラフコントラスト学習の強化は、不規則な構造、劇的な分布シフト、データセット全体の非同値な特徴空間のために難しい。
これは、エンコーダがノードレベルとグラフレベルの両方で一般化可能な表現を学習するのに役立つ、エンドツーエンドの自動グラフ拡張フレームワークである。
LG2ARは、増分に関する分布を学習する確率的ポリシーと、増分パラメータに関する分布を学習する確率的増分ヘッドからなる。
lg2arは20のグラフレベルおよびノードレベルのベンチマークのうち18のベンチマークにおいて、線形および半教師なしの評価プロトコルで従来の教師なしモデルと比較して最先端の結果を得る。
ソースコードはここで公開される。 https://github.com/kavehhassani/lg2ar
関連論文リスト
- Explanation-Preserving Augmentation for Semi-Supervised Graph Representation Learning [13.494832603509897]
グラフ表現学習(GRL)は,ノード分類やグラフ分類といった幅広いタスクのパフォーマンス向上を実現するための有効な手法として登場した。
本稿では,拡張グラフの生成にグラフ説明手法を活用する新しい手法である Explanation-Preserving Augmentation (EPA) を提案する。
EPAはまず、グラフのセマンティクスに最も関係のある部分構造(説明)を推測するために、グラフ説明器を訓練するために少数のラベルを使用する。
論文 参考訳(メタデータ) (2024-10-16T15:18:03Z) - Community-Invariant Graph Contrastive Learning [21.72222875193335]
本研究では,グラフ強化におけるグラフコミュニティの役割について検討する。
本稿では,学習可能なグラフ拡張時のグラフコミュニティ構造を維持するための,コミュニティ不変なGCLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-02T14:59:58Z) - GSINA: Improving Subgraph Extraction for Graph Invariant Learning via
Graph Sinkhorn Attention [52.67633391931959]
グラフ不変学習(GIL)は,グラフデータとそのラベル間の不変性を発見するための効果的な手法である。
グラフシンクホーン注意機構(GSINA)を提案する。
GSINAは、制御可能な空間性と柔らかさを持つ有意義で微分可能な不変部分グラフを得ることができる。
論文 参考訳(メタデータ) (2024-02-11T12:57:16Z) - SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - Augmentation-Free Self-Supervised Learning on Graphs [7.146027549101716]
AFGRLと呼ばれるグラフのための拡張自由な自己教師型学習フレームワークを提案する。
具体的には,局所構造情報とグローバルセマンティクスをグラフと共有するノードを発見することによって,グラフの代替ビューを生成する。
論文 参考訳(メタデータ) (2021-12-05T04:20:44Z) - Towards Graph Self-Supervised Learning with Contrastive Adjusted Zooming [48.99614465020678]
本稿では,グラフコントラスト適応ズームによる自己教師付きグラフ表現学習アルゴリズムを提案する。
このメカニズムにより、G-Zoomはグラフから複数のスケールから自己超越信号を探索して抽出することができる。
我々は,実世界のデータセットに関する広範な実験を行い,提案したモデルが常に最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2021-11-20T22:45:53Z) - Graph Contrastive Learning with Augmentations [109.23158429991298]
グラフデータの教師なし表現を学習するためのグラフコントラスト学習(GraphCL)フレームワークを提案する。
我々のフレームワークは、最先端の手法と比較して、類似またはより良い一般化可能性、転送可能性、堅牢性のグラフ表現を作成できることを示す。
論文 参考訳(メタデータ) (2020-10-22T20:13:43Z) - Iterative Deep Graph Learning for Graph Neural Networks: Better and
Robust Node Embeddings [53.58077686470096]
グラフ構造とグラフ埋め込みを協調的かつ反復的に学習するための、エンドツーエンドのグラフ学習フレームワーク、すなわち、IDGL(Iterative Deep Graph Learning)を提案する。
実験の結果,提案したIDGLモデルは,最先端のベースラインを一貫して上回る,あるいは一致させることができることがわかった。
論文 参考訳(メタデータ) (2020-06-21T19:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。