論文の概要: STERLING: Synergistic Representation Learning on Bipartite Graphs
- arxiv url: http://arxiv.org/abs/2302.05428v2
- Date: Tue, 19 Dec 2023 13:00:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-21 03:05:22.691609
- Title: STERLING: Synergistic Representation Learning on Bipartite Graphs
- Title(参考訳): STERling: 両部グラフによる相乗的表現学習
- Authors: Baoyu Jing, Yuchen Yan, Kaize Ding, Chanyoung Park, Yada Zhu, Huan Liu
and Hanghang Tong
- Abstract要約: 二部グラフ表現学習の基本的な課題は、ノードの埋め込みを抽出する方法である。
最近の二部グラフSSL法は、正ノード対と負ノード対を識別することによって埋め込みを学習する対照的な学習に基づいている。
負のノードペアを持たないノード埋め込みを学習するための新しい相乗的表現学習モデル(STERling)を提案する。
- 参考スコア(独自算出の注目度): 78.86064828220613
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A fundamental challenge of bipartite graph representation learning is how to
extract informative node embeddings. Self-Supervised Learning (SSL) is a
promising paradigm to address this challenge. Most recent bipartite graph SSL
methods are based on contrastive learning which learns embeddings by
discriminating positive and negative node pairs. Contrastive learning usually
requires a large number of negative node pairs, which could lead to
computational burden and semantic errors. In this paper, we introduce a novel
synergistic representation learning model (STERLING) to learn node embeddings
without negative node pairs. STERLING preserves the unique local and global
synergies in bipartite graphs. The local synergies are captured by maximizing
the similarity of the inter-type and intra-type positive node pairs, and the
global synergies are captured by maximizing the mutual information of
co-clusters. Theoretical analysis demonstrates that STERLING could improve the
connectivity between different node types in the embedding space. Extensive
empirical evaluation on various benchmark datasets and tasks demonstrates the
effectiveness of STERLING for extracting node embeddings.
- Abstract(参考訳): 二部グラフ表現学習の基本的な課題は、情報的ノード埋め込みの抽出方法である。
自己監視学習(SSL)はこの課題に対処するための有望なパラダイムです。
最近の2部グラフssl法は、正のノード対と負のノード対を区別することで埋め込みを学習するコントラスト学習に基づいている。
対照的学習は通常、多くの負のノードペアを必要とするため、計算負荷や意味的誤りにつながる可能性がある。
本稿では,負のノード対を使わずにノード埋め込みを学ぶための新しい相乗的表現学習モデル(sterling)を提案する。
STERlingは二部グラフにおけるユニークな局所的および大域的シナジーを保存する。
局所的な相乗効果は、中間型および内型正のノード対の類似度を最大化し、大域的な相乗効果は、共クラスターの相互情報を最大化する。
理論的解析により、STERlingは埋め込み空間における異なるノードタイプ間の接続性を改善することができることを示した。
各種ベンチマークデータセットとタスクに対する広範囲な実験評価は,ノード埋め込み抽出における STERling の有効性を示す。
関連論文リスト
- Self-Supervised Conditional Distribution Learning on Graphs [15.730933577970687]
本稿では,従来の特徴に対して,弱い特徴と強く拡張された特徴の条件分布を整列するエンドツーエンドグラフ表現学習モデルを提案する。
このアライメントは、グラフ構造化データ拡張による本質的な意味情報の破壊のリスクを効果的に低減する。
論文 参考訳(メタデータ) (2024-11-20T07:26:36Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Self-Supervised Node Representation Learning via Node-to-Neighbourhood
Alignment [10.879056662671802]
自己教師付きノード表現学習は、教師付きノードと競合する未ラベルグラフからノード表現を学ぶことを目的としている。
本研究では,ノードとその周辺領域の隠蔽表現を整列させることにより,単純なyet効率の自己教師付きノード表現学習を提案する。
我々は,グラフ構造化データセットの集合に対して,ノード分類性能が期待できるノード表現を,小規模から大規模に学習する。
論文 参考訳(メタデータ) (2023-02-09T13:21:18Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - Interpolation-based Correlation Reduction Network for Semi-Supervised
Graph Learning [49.94816548023729]
補間型相関低減ネットワーク(ICRN)と呼ばれる新しいグラフコントラスト学習手法を提案する。
提案手法では,決定境界のマージンを大きくすることで,潜在特徴の識別能力を向上させる。
この2つの設定を組み合わせることで、豊富なラベル付きノードと稀に価値あるラベル付きノードから豊富な監視情報を抽出し、離散表現学習を行う。
論文 参考訳(メタデータ) (2022-06-06T14:26:34Z) - Uniting Heterogeneity, Inductiveness, and Efficiency for Graph
Representation Learning [68.97378785686723]
グラフニューラルネットワーク(GNN)は,グラフ上のノード表現学習の性能を大幅に向上させた。
GNNの過半数クラスは均質グラフのためにのみ設計されており、より有益な異種グラフに劣る適応性をもたらす。
本稿では,低次ノードと高次ノードの両方のエッジに付随するヘテロジニアスなノード特徴をパッケージ化する,新しい帰納的メタパスフリーメッセージパッシング方式を提案する。
論文 参考訳(メタデータ) (2021-04-04T23:31:39Z) - Node2Seq: Towards Trainable Convolutions in Graph Neural Networks [59.378148590027735]
今回提案するグラフネットワーク層であるNode2Seqは,隣接ノードの重みを明示的に調整可能なノード埋め込みを学習する。
対象ノードに対して,当手法は注意メカニズムを介して隣接ノードをソートし,さらに1D畳み込みニューラルネットワーク(CNN)を用いて情報集約のための明示的な重み付けを行う。
また, 特徴学習のための非局所的情報を, 注意スコアに基づいて適応的に組み込むことを提案する。
論文 参考訳(メタデータ) (2021-01-06T03:05:37Z) - GraphCL: Contrastive Self-Supervised Learning of Graph Representations [20.439666392958284]
本稿では,ノード表現を自己教師型で学習するための一般的なフレームワークであるGraph Contrastive Learning (GraphCL)を提案する。
グラフニューラルネットワークを用いて、同じノードの2つの表現を生成し、対照的な学習損失を利用して両者の一致を最大化する。
帰納的学習と帰納的学習の両方において,本手法がノード分類ベンチマークにおいて教師なし学習の最先端性を大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2020-07-15T22:36:53Z) - Self-Supervised Graph Representation Learning via Global Context
Prediction [31.07584920486755]
本稿では,データ自体による自然監督を利用して,グラフ表現学習のための新たな自己教師型戦略を提案する。
グラフ内のノードのペアをランダムに選択し、よく設計されたニューラルネットをトレーニングし、一方のノードのコンテキスト位置を他方と相対的に予測する。
我々の仮説は、そのようなグラフ内コンテキストから得られた表現はグラフのグローバルなトポロジーを捉え、ノード間の類似性と区別を微妙に特徴づける、というものである。
論文 参考訳(メタデータ) (2020-03-03T15:46:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。