論文の概要: Self-supervised Learning for Heterogeneous Graph via Structure
Information based on Metapath
- arxiv url: http://arxiv.org/abs/2209.04218v1
- Date: Fri, 9 Sep 2022 10:06:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-12 12:22:57.332733
- Title: Self-supervised Learning for Heterogeneous Graph via Structure
Information based on Metapath
- Title(参考訳): メタパスに基づく構造情報によるヘテロジニアスグラフの自己教師あり学習
- Authors: Shuai Ma, Jian-wei Liu, Xin Zuo
- Abstract要約: 自己教師付き表現学習はこの問題に対処するための潜在的アプローチである。
本稿では,メタパスに基づく構造情報を用いたヘテロジニアスグラフの教師付き学習手法を提案する。
ジャンプ数を予測するために、SESIMはデータ自体を使用してラベルを生成する。
- 参考スコア(独自算出の注目度): 9.757299837675204
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: graph neural networks (GNNs) are the dominant paradigm for modeling and
handling graph structure data by learning universal node representation. The
traditional way of training GNNs depends on a great many labeled data, which
results in high requirements on cost and time. In some special scene, it is
even unavailable and impracticable. Self-supervised representation learning,
which can generate labels by graph structure data itself, is a potential
approach to tackle this problem. And turning to research on self-supervised
learning problem for heterogeneous graphs is more challenging than dealing with
homogeneous graphs, also there are fewer studies about it. In this paper, we
propose a SElfsupervised learning method for heterogeneous graph via Structure
Information based on Metapath (SESIM). The proposed model can construct pretext
tasks by predicting jump number between nodes in each metapath to improve the
representation ability of primary task. In order to predict jump number, SESIM
uses data itself to generate labels, avoiding time-consuming manual labeling.
Moreover, predicting jump number in each metapath can effectively utilize graph
structure information, which is the essential property between nodes.
Therefore, SESIM deepens the understanding of models for graph structure. At
last, we train primary task and pretext tasks jointly, and use meta-learning to
balance the contribution of pretext tasks for primary task. Empirical results
validate the performance of SESIM method and demonstrate that this method can
improve the representation ability of traditional neural networks on link
prediction task and node classification task.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、普遍ノード表現の学習によるグラフ構造データのモデリングと処理の主流パラダイムである。
従来のGNNのトレーニング方法は、多くのラベル付きデータに依存するため、コストと時間の要求が高い。
特別な場面では使用不可能で、実行不可能である。
グラフ構造データ自身でラベルを生成できる自己教師あり表現学習は、この問題に取り組むための潜在的なアプローチである。
また、異種グラフに対する自己教師付き学習問題の研究を、同種グラフを扱うよりも難しいものにし、それに関する研究も少ない。
本稿では,メタパス(SESIM)に基づく構造情報を用いたヘテロジニアスグラフの教師付き学習手法を提案する。
提案モデルでは,各メタパスのノード間のジャンプ数を予測し,プライマリタスクの表現能力を向上させることにより,プリテキストタスクを構築することができる。
ジャンプ数を予測するために、sesimはデータ自身を使ってラベルを生成し、時間を要する手動ラベリングを避ける。
さらに、各メタパスにおけるジャンプ数を予測することは、ノード間の必須特性であるグラフ構造情報を有効に活用することができる。
したがって、SESIMはグラフ構造のモデルの理解を深める。
最後に、プライマリタスクとpretextタスクを共同でトレーニングし、プライマリタスクに対するpretextタスクの貢献のバランスをとるためにメタラーニングを使用します。
実験によりSESIM法の性能を検証し,従来のニューラルネットワークのリンク予測タスクとノード分類タスクにおける表現能力を向上できることを実証した。
関連論文リスト
- Learning From Graph-Structured Data: Addressing Design Issues and Exploring Practical Applications in Graph Representation Learning [2.492884361833709]
グラフ表現学習とグラフニューラルネットワーク(GNN)の最近の進歩を概観する。
グラフ構造化データを扱うように設計されたGNNは、複雑な関係情報から洞察と予測を引き出すのに長けている。
我々の研究は、GNNの能力を掘り下げ、その基礎設計と現実の課題に対処するための応用について調べている。
論文 参考訳(メタデータ) (2024-11-09T19:10:33Z) - UniGraph: Learning a Unified Cross-Domain Foundation Model for Text-Attributed Graphs [30.635472655668078]
Text-Attributed Graphs (TAG) は、さまざまなドメインにまたがる見えないグラフやタスクに一般化することができる。
本稿では,言語モデル (LM) とグラフニューラルネットワーク (GNN) をバックボーンネットワークとして,新しいケースドアーキテクチャを提案する。
本モデルの有効性を,未確認グラフの自己教師型表現学習,少数ショットインコンテキスト転送,ゼロショット転送で実証する。
論文 参考訳(メタデータ) (2024-02-21T09:06:31Z) - SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - GraphGLOW: Universal and Generalizable Structure Learning for Graph
Neural Networks [72.01829954658889]
本稿では,この新たな問題設定の数学的定義を紹介する。
一つのグラフ共有構造学習者と複数のグラフ固有GNNを協調する一般的なフレームワークを考案する。
十分に訓練された構造学習者は、微調整なしで、目に見えない対象グラフの適応的な構造を直接生成することができる。
論文 参考訳(メタデータ) (2023-06-20T03:33:22Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - SHGNN: Structure-Aware Heterogeneous Graph Neural Network [77.78459918119536]
本稿では、上記の制約に対処する構造対応不均一グラフニューラルネットワーク(SHGNN)を提案する。
まず,メタパス内の中間ノードの局所構造情報を取得するために,特徴伝搬モジュールを利用する。
次に、ツリーアテンションアグリゲータを使用して、グラフ構造情報をメタパス上のアグリゲーションモジュールに組み込む。
最後に、メタパスアグリゲータを利用して、異なるメタパスから集約された情報を融合する。
論文 参考訳(メタデータ) (2021-12-12T14:18:18Z) - Meta-Inductive Node Classification across Graphs [6.0471030308057285]
MI-GNNと呼ばれる新しいメタインダクタティブフレームワークを提案し、各グラフにインダクタティブモデルをカスタマイズする。
MI-GNNは誘導モデルを直接学習するものではなく、新しいグラフ上の半監視ノード分類のためのモデルをトレーニングする方法に関する一般的な知識を学ぶ。
5つの実世界のグラフコレクションに関する広範な実験により,提案モデルの有効性が示された。
論文 参考訳(メタデータ) (2021-05-14T09:16:28Z) - Higher-Order Attribute-Enhancing Heterogeneous Graph Neural Networks [67.25782890241496]
異種ネットワーク表現学習のための高次属性強化グラフニューラルネットワーク(HAEGNN)を提案する。
HAEGNNは、リッチで異質なセマンティクスのためのメタパスとメタグラフを同時に組み込む。
ノード分類、ノードクラスタリング、可視化における最先端の手法よりも優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-04-16T04:56:38Z) - Self-supervised Auxiliary Learning with Meta-paths for Heterogeneous
Graphs [21.617020380894488]
ヘテロジニアスグラフ上のグラフニューラルネットワークを学習するための,新しい自己教師付き補助学習法を提案する。
本手法は,任意のグラフニューラルネットワークに対して,手動ラベリングや追加データなしでプラグイン方式で適用することができる。
論文 参考訳(メタデータ) (2020-07-16T12:32:11Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。