論文の概要: Data-Driven Self-Supervised Graph Representation Learning
- arxiv url: http://arxiv.org/abs/2412.18316v1
- Date: Tue, 24 Dec 2024 10:04:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-25 15:56:14.575208
- Title: Data-Driven Self-Supervised Graph Representation Learning
- Title(参考訳): データ駆動型自己スーパービジョングラフ表現学習
- Authors: Ahmed E. Samy, Zekarias T. Kefatoa, Sarunas Girdzijauskasa,
- Abstract要約: 自己教師付きグラフ表現学習(英: Self-supervised graph representation learning, SSGRL)は、手動ラベリングの削減や回避に使用される表現学習パラダイムである。
本稿では,グラフに符号化された信号から適切なグラフ拡張を自動的に学習する,新しいデータ駆動型SSGRL手法を提案する。
ノード分類とグラフ特性予測に関する広範な実験を行う。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Self-supervised graph representation learning (SSGRL) is a representation learning paradigm used to reduce or avoid manual labeling. An essential part of SSGRL is graph data augmentation. Existing methods usually rely on heuristics commonly identified through trial and error and are effective only within some application domains. Also, it is not clear why one heuristic is better than another. Moreover, recent studies have argued against some techniques (e.g., dropout: that can change the properties of molecular graphs or destroy relevant signals for graph-based document classification tasks). In this study, we propose a novel data-driven SSGRL approach that automatically learns a suitable graph augmentation from the signal encoded in the graph (i.e., the nodes' predictive feature and topological information). We propose two complementary approaches that produce learnable feature and topological augmentations. The former learns multi-view augmentation of node features, and the latter learns a high-order view of the topology. Moreover, the augmentations are jointly learned with the representation. Our approach is general that it can be applied to homogeneous and heterogeneous graphs. We perform extensive experiments on node classification (using nine homogeneous and heterogeneous datasets) and graph property prediction (using another eight datasets). The results show that the proposed method matches or outperforms the SOTA SSGRL baselines and performs similarly to semi-supervised methods. The anonymised source code is available at https://github.com/AhmedESamy/dsgrl/
- Abstract(参考訳): 自己教師付きグラフ表現学習(英: Self-supervised graph representation learning, SSGRL)は、手動ラベリングの削減や回避に使用される表現学習パラダイムである。
SSGRLの重要な部分はグラフデータ拡張である。
既存の手法は通常、試行錯誤によってよく特定されるヒューリスティックに頼り、一部のアプリケーションドメインでのみ有効である。
また、なぜ一方のヒューリスティックが他方よりも優れているのかは定かではない。
さらに、最近の研究はいくつかの手法に反対している(例えば、ドロップアウト:分子グラフの特性を変更したり、グラフベースの文書分類タスクの関連信号を破壊することができる)。
本研究では,グラフに符号化された信号(ノードの予測特徴と位相情報)から,適切なグラフ拡張を自動的に学習する,新しいデータ駆動型SSGRL手法を提案する。
学習可能な特徴とトポロジ的拡張を生成する2つの補完的アプローチを提案する。
前者はノード機能のマルチビュー拡張を、後者はトポロジの高階ビューを学習する。
さらに、拡張は表現と共同で学習される。
我々のアプローチは、等質グラフや異質グラフに適用できるという一般的なものである。
ノード分類(9つの同種および異種データセットを用いた)とグラフ特性予測(他の8つのデータセットを用いた)について広範な実験を行った。
その結果,提案手法はSOTA SSGRLベースラインに適合し,性能が良く,半教師付き手法と類似していることが示唆された。
匿名のソースコードはhttps://github.com/AhmedESamy/dsgrl/で入手できる。
関連論文リスト
- Explanation-Preserving Augmentation for Semi-Supervised Graph Representation Learning [13.494832603509897]
グラフ表現学習(GRL)は,ノード分類やグラフ分類といった幅広いタスクのパフォーマンス向上を実現するための有効な手法として登場した。
本稿では,拡張グラフの生成にグラフ説明手法を活用する新しい手法である Explanation-Preserving Augmentation (EPA) を提案する。
EPAはまず、グラフのセマンティクスに最も関係のある部分構造(説明)を推測するために、グラフ説明器を訓練するために少数のラベルを使用する。
論文 参考訳(メタデータ) (2024-10-16T15:18:03Z) - GSINA: Improving Subgraph Extraction for Graph Invariant Learning via
Graph Sinkhorn Attention [52.67633391931959]
グラフ不変学習(GIL)は,グラフデータとそのラベル間の不変性を発見するための効果的な手法である。
グラフシンクホーン注意機構(GSINA)を提案する。
GSINAは、制御可能な空間性と柔らかさを持つ有意義で微分可能な不変部分グラフを得ることができる。
論文 参考訳(メタデータ) (2024-02-11T12:57:16Z) - SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - A Simple and Scalable Graph Neural Network for Large Directed Graphs [11.792826520370774]
入力グラフ内のノード表現とエッジ方向認識の様々な組み合わせについて検討する。
そこで本研究では,A2DUGを簡易かつ包括的に分類する手法を提案する。
我々は、A2DUGが様々なデータセットで安定して動作し、最先端の手法と比較して11.29まで精度が向上することを示した。
論文 参考訳(メタデータ) (2023-06-14T06:24:58Z) - Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - Make Heterophily Graphs Better Fit GNN: A Graph Rewiring Approach [43.41163711340362]
本稿では, ヘテロフィリーグラフリワイアリング(Deep Heterophily Graph Rewiring, DHGR)という手法を提案する。
我々の知る限りでは、ヘテロフィリーグラフに対するグラフ再構成を研究する最初の研究である。
論文 参考訳(メタデータ) (2022-09-17T06:55:21Z) - Self-supervised Learning for Heterogeneous Graph via Structure
Information based on Metapath [9.757299837675204]
自己教師付き表現学習はこの問題に対処するための潜在的アプローチである。
本稿では,メタパスに基づく構造情報を用いたヘテロジニアスグラフの教師付き学習手法を提案する。
ジャンプ数を予測するために、SESIMはデータ自体を使用してラベルを生成する。
論文 参考訳(メタデータ) (2022-09-09T10:06:18Z) - Heterogeneous Graph Neural Networks using Self-supervised Reciprocally
Contrastive Learning [102.9138736545956]
不均一グラフニューラルネットワーク(HGNN)は異種グラフのモデリングと解析において非常に一般的な手法である。
我々は,ノード属性とグラフトポロジの各ガイダンスに関する2つの視点を取り入れた,新規で頑健なヘテロジニアスグラフコントラスト学習手法であるHGCLを初めて開発する。
この新しいアプローチでは,属性とトポロジに関連情報を別々にマイニングする手法として,異なるが最も適した属性とトポロジの融合機構を2つの視点に適用する。
論文 参考訳(メタデータ) (2022-04-30T12:57:02Z) - Augmentation-Free Self-Supervised Learning on Graphs [7.146027549101716]
AFGRLと呼ばれるグラフのための拡張自由な自己教師型学習フレームワークを提案する。
具体的には,局所構造情報とグローバルセマンティクスをグラフと共有するノードを発見することによって,グラフの代替ビューを生成する。
論文 参考訳(メタデータ) (2021-12-05T04:20:44Z) - Graph Contrastive Learning with Augmentations [109.23158429991298]
グラフデータの教師なし表現を学習するためのグラフコントラスト学習(GraphCL)フレームワークを提案する。
我々のフレームワークは、最先端の手法と比較して、類似またはより良い一般化可能性、転送可能性、堅牢性のグラフ表現を作成できることを示す。
論文 参考訳(メタデータ) (2020-10-22T20:13:43Z) - Robust Optimization as Data Augmentation for Large-scale Graphs [117.2376815614148]
学習中に勾配に基づく逆方向摂動を伴うノード特徴を反復的に拡張するFLAG(Free Large-scale Adversarial Augmentation on Graphs)を提案する。
FLAGはグラフデータに対する汎用的なアプローチであり、ノード分類、リンク予測、グラフ分類タスクで普遍的に機能する。
論文 参考訳(メタデータ) (2020-10-19T21:51:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。