論文の概要: Self-supervised Heterogeneous Graph Pre-training Based on Structural
Clustering
- arxiv url: http://arxiv.org/abs/2210.10462v2
- Date: Wed, 12 Apr 2023 12:20:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 18:34:46.026877
- Title: Self-supervised Heterogeneous Graph Pre-training Based on Structural
Clustering
- Title(参考訳): 構造クラスタリングに基づく自己教師付き不均質グラフ事前学習
- Authors: Yaming Yang, Ziyu Guan, Zhe Wang, Wei Zhao, Cai Xu, Weigang Lu,
Jianbin Huang
- Abstract要約: SHGP(Self-supervised Heterogeneous Graph Pre-training approach)を提案する。
肯定的な例や否定的な例を生成する必要はない。
最先端の教師なしベースラインや半教師なしベースラインよりも優れている。
- 参考スコア(独自算出の注目度): 20.985559149384795
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent self-supervised pre-training methods on Heterogeneous Information
Networks (HINs) have shown promising competitiveness over traditional
semi-supervised Heterogeneous Graph Neural Networks (HGNNs). Unfortunately,
their performance heavily depends on careful customization of various
strategies for generating high-quality positive examples and negative examples,
which notably limits their flexibility and generalization ability. In this
work, we present SHGP, a novel Self-supervised Heterogeneous Graph Pre-training
approach, which does not need to generate any positive examples or negative
examples. It consists of two modules that share the same attention-aggregation
scheme. In each iteration, the Att-LPA module produces pseudo-labels through
structural clustering, which serve as the self-supervision signals to guide the
Att-HGNN module to learn object embeddings and attention coefficients. The two
modules can effectively utilize and enhance each other, promoting the model to
learn discriminative embeddings. Extensive experiments on four real-world
datasets demonstrate the superior effectiveness of SHGP against
state-of-the-art unsupervised baselines and even semi-supervised baselines. We
release our source code at: https://github.com/kepsail/SHGP.
- Abstract(参考訳): 近年, 従来の半教師付きヘテロジニアスグラフニューラルネットワーク (HGNN) と比較して, 有望な競争力を示した。
残念ながら、彼らのパフォーマンスは、高品質なポジティブな例やネガティブな例を生成するための様々な戦略を慎重にカスタマイズすることに大きく依存している。
本研究では,自己教師付き不均一グラフ事前学習手法であるSHGPを提案する。
同じ注目集約スキームを共有する2つのモジュールで構成されている。
各イテレーションにおいて、Att-LPAモジュールは構造クラスタリングを通じて擬似ラベルを生成し、Att-HGNNモジュールを誘導し、オブジェクトの埋め込みと注意係数を学習するセルフスーパービジョン信号として機能する。
2つのモジュールは互いに有効に利用し、強化し、識別的埋め込みを学ぶためのモデルを促進する。
4つの実世界のデータセットに対する大規模な実験は、最先端の教師なしベースラインや半教師なしベースラインに対してSHGPの優れた効果を示す。
ソースコードはhttps://github.com/kepsail/shgp。
関連論文リスト
- Language Models are Graph Learners [70.14063765424012]
言語モデル(LM)は、グラフニューラルネットワーク(GNN)やグラフトランスフォーマー(GT)など、ドメイン固有のモデルの優位性に挑戦している。
本稿では,ノード分類タスクにおける最先端のGNNに匹敵する性能を実現するために,既製のLMを有効活用する手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T08:27:54Z) - Self-Supervised Contrastive Graph Clustering Network via Structural Information Fusion [15.293684479404092]
CGCNと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,事前学習プロセスにコントラスト信号と深部構造情報を導入している。
本手法は,複数の実世界のグラフデータセットに対して実験的に検証されている。
論文 参考訳(メタデータ) (2024-08-08T09:49:26Z) - Deep Contrastive Graph Learning with Clustering-Oriented Guidance [61.103996105756394]
グラフ畳み込みネットワーク(GCN)は、グラフベースのクラスタリングを改善する上で大きな可能性を秘めている。
モデルはGCNを適用するために初期グラフを事前に推定する。
一般的なデータクラスタリングには,Deep Contrastive Graph Learning (DCGL)モデルが提案されている。
論文 参考訳(メタデータ) (2024-02-25T07:03:37Z) - Empowering Dual-Level Graph Self-Supervised Pretraining with Motif
Discovery [28.38130326794833]
Dual-level Graph self-supervised Pretraining with Motif Discovery (DGPM)を紹介する。
DGPMはノードレベルとサブグラフレベルのプリテキストタスクをオーケストレーションする。
15データセットの実験は、DGPMの有効性と一般化性を検証する。
論文 参考訳(メタデータ) (2023-12-19T08:09:36Z) - Homophily-enhanced Structure Learning for Graph Clustering [19.586401211161846]
グラフ構造学習は、欠落したリンクを追加し、スプリアス接続を取り除くことで、入力グラフの精細化を可能にする。
グラフ構造学習におけるこれまでの取り組みは、主に教師付き設定を中心に行われてきた。
グラフクラスタリングのためのtextbfhomophily-enhanced structure textbflearning という新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-10T02:53:30Z) - Interpolation-based Correlation Reduction Network for Semi-Supervised
Graph Learning [49.94816548023729]
補間型相関低減ネットワーク(ICRN)と呼ばれる新しいグラフコントラスト学習手法を提案する。
提案手法では,決定境界のマージンを大きくすることで,潜在特徴の識別能力を向上させる。
この2つの設定を組み合わせることで、豊富なラベル付きノードと稀に価値あるラベル付きノードから豊富な監視情報を抽出し、離散表現学習を行う。
論文 参考訳(メタデータ) (2022-06-06T14:26:34Z) - Deep Attention-guided Graph Clustering with Dual Self-supervision [49.040136530379094]
デュアル・セルフ・スーパービジョン(DAGC)を用いたディープアテンション誘導グラフクラスタリング法を提案する。
我々は,三重項Kulback-Leibler分散損失を持つソフトな自己スーパービジョン戦略と,擬似的な監督損失を持つハードな自己スーパービジョン戦略からなる二重自己スーパービジョンソリューションを開発する。
提案手法は6つのベンチマークデータセットにおける最先端の手法より一貫して優れている。
論文 参考訳(メタデータ) (2021-11-10T06:53:03Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - Embedding Graph Auto-Encoder for Graph Clustering [90.8576971748142]
グラフ自動エンコーダ(GAE)モデルは、半教師付きグラフ畳み込みネットワーク(GCN)に基づく
我々は、グラフクラスタリングのための特定のGAEベースのモデルを設計し、その理論、すなわち、埋め込みグラフオートエンコーダ(EGAE)と整合する。
EGAEは1つのエンコーダと2つのデコーダで構成される。
論文 参考訳(メタデータ) (2020-02-20T09:53:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。