論文の概要: Graph Structure Refinement with Energy-based Contrastive Learning
- arxiv url: http://arxiv.org/abs/2412.17856v2
- Date: Mon, 30 Dec 2024 02:28:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-31 16:00:22.941907
- Title: Graph Structure Refinement with Energy-based Contrastive Learning
- Title(参考訳): エネルギーに基づくコントラスト学習によるグラフ構造再構成
- Authors: Xianlin Zeng, Yufeng Wang, Yuqi Sun, Guodong Guo, Baochang Zhang, Wenrui Ding,
- Abstract要約: グラフの構造と表現を学習するための生成訓練と識別訓練のジョイントに基づく教師なし手法を提案する。
本稿では,ECL-GSR(Energy-based Contrastive Learning)によるグラフ構造再構成(GSR)フレームワークを提案する。
ECL-GSRは、主要なベースラインに対するサンプルやメモリの少ない高速なトレーニングを実現し、下流タスクの単純さと効率性を強調している。
- 参考スコア(独自算出の注目度): 56.957793274727514
- License:
- Abstract: Graph Neural Networks (GNNs) have recently gained widespread attention as a successful tool for analyzing graph-structured data. However, imperfect graph structure with noisy links lacks enough robustness and may damage graph representations, therefore limiting the GNNs' performance in practical tasks. Moreover, existing generative architectures fail to fit discriminative graph-related tasks. To tackle these issues, we introduce an unsupervised method based on a joint of generative training and discriminative training to learn graph structure and representation, aiming to improve the discriminative performance of generative models. We propose an Energy-based Contrastive Learning (ECL) guided Graph Structure Refinement (GSR) framework, denoted as ECL-GSR. To our knowledge, this is the first work to combine energy-based models with contrastive learning for GSR. Specifically, we leverage ECL to approximate the joint distribution of sample pairs, which increases the similarity between representations of positive pairs while reducing the similarity between negative ones. Refined structure is produced by augmenting and removing edges according to the similarity metrics among node representations. Extensive experiments demonstrate that ECL-GSR outperforms the state-of-the-art on eight benchmark datasets in node classification. ECL-GSR achieves faster training with fewer samples and memories against the leading baseline, highlighting its simplicity and efficiency in downstream tasks.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は近年,グラフ構造化データを解析するためのツールとして広く注目を集めている。
しかし、ノイズの多いリンクを持つ不完全なグラフ構造は、十分な堅牢性を欠き、グラフ表現を損なう可能性があるため、実用的なタスクにおけるGNNの性能は制限される。
さらに、既存の生成アーキテクチャは、差別的なグラフ関連のタスクに適合しない。
これらの課題に対処するために、生成モデルの識別性能を向上させることを目的として、生成学習と識別訓練のジョイントに基づく教師なし手法を導入し、グラフ構造と表現を学習する。
本稿では,ECL-GSR(Energy-based Contrastive Learning)によるグラフ構造再構成(GSR)フレームワークを提案する。
我々の知る限り、これはエネルギーベースモデルとGSRの対照的な学習を組み合わせた最初の研究である。
具体的には、ECLを利用してサンプル対の結合分布を近似し、正の対の表現間の類似度を増大させ、負の対間の類似度を減少させる。
精製された構造は、ノード表現間の類似度指標に従ってエッジを増減して生成される。
大規模な実験により、ECL-GSRはノード分類の8つのベンチマークデータセットにおいて最先端のデータセットよりも優れていることが示された。
ECL-GSRは、主要なベースラインに対するサンプルやメモリの少ない高速なトレーニングを実現し、下流タスクの単純さと効率性を強調している。
関連論文リスト
- Self-Supervised Conditional Distribution Learning on Graphs [15.730933577970687]
本稿では,従来の特徴に対して,弱い特徴と強く拡張された特徴の条件分布を整列するエンドツーエンドグラフ表現学習モデルを提案する。
このアライメントは、グラフ構造化データ拡張による本質的な意味情報の破壊のリスクを効果的に低減する。
論文 参考訳(メタデータ) (2024-11-20T07:26:36Z) - Preserving Node Distinctness in Graph Autoencoders via Similarity Distillation [9.395697548237333]
グラフオートエンコーダ(GAE)は、平均二乗誤差(MSE)のような距離ベースの基準に依存して入力グラフを再構築する。
単一の再構築基準にのみ依存すると 再建されたグラフの 特徴が失われる可能性がある
我々は,再構成されたグラフにおいて,必要な相違性を維持するための簡易かつ効果的な戦略を開発した。
論文 参考訳(メタデータ) (2024-06-25T12:54:35Z) - Synergistic Deep Graph Clustering Network [14.569867830074292]
我々はSynC(Syngistic Deep Graph Clustering Network)というグラフクラスタリングフレームワークを提案する。
本稿では,構造拡張を導くための高品質な埋め込みを実現するために,TIGAE (Transform Input Graph Auto-Encoder) を設計する。
特に、表現学習と構造増強は重みを共有し、モデルパラメータの数を著しく減少させる。
論文 参考訳(メタデータ) (2024-06-22T09:40:34Z) - Deep Contrastive Graph Learning with Clustering-Oriented Guidance [61.103996105756394]
グラフ畳み込みネットワーク(GCN)は、グラフベースのクラスタリングを改善する上で大きな可能性を秘めている。
モデルはGCNを適用するために初期グラフを事前に推定する。
一般的なデータクラスタリングには,Deep Contrastive Graph Learning (DCGL)モデルが提案されている。
論文 参考訳(メタデータ) (2024-02-25T07:03:37Z) - Graph-level Protein Representation Learning by Structure Knowledge
Refinement [50.775264276189695]
本稿では、教師なしの方法でグラフ全体の表現を学習することに焦点を当てる。
本稿では、データ構造を用いて、ペアが正か負かの確率を決定する構造知識精製(Structure Knowledge Refinement, SKR)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-05T09:05:33Z) - Rethinking and Simplifying Bootstrapped Graph Latents [48.76934123429186]
グラフ・コントラッシブ・ラーニング(GCL)はグラフ自己教師型ラーニングにおいて代表的なパラダイムとして登場した。
SGCLは2つの繰り返しの出力を正のペアとして利用するシンプルで効果的なGCLフレームワークである。
我々は,SGCLがより少ないパラメータ,少ない時間と空間コスト,およびかなりの収束速度で競合性能を達成可能であることを示す。
論文 参考訳(メタデータ) (2023-12-05T09:49:50Z) - Homophily-enhanced Structure Learning for Graph Clustering [19.586401211161846]
グラフ構造学習は、欠落したリンクを追加し、スプリアス接続を取り除くことで、入力グラフの精細化を可能にする。
グラフ構造学習におけるこれまでの取り組みは、主に教師付き設定を中心に行われてきた。
グラフクラスタリングのためのtextbfhomophily-enhanced structure textbflearning という新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-10T02:53:30Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - FastGCL: Fast Self-Supervised Learning on Graphs via Contrastive
Neighborhood Aggregation [26.07819501316758]
よりコントラスト的なスキームは、グラフニューラルネットワークの特性に合わせて調整されるべきである、と我々は主張する。
重み付けと非集約の近傍情報をそれぞれ正と負のサンプルとして構成することにより、FastGCLはデータの潜在的な意味情報を識別する。
ノード分類とグラフ分類のタスクについて実験を行い、FastGCLは競合する分類性能と重要なトレーニングスピードアップを有することを示した。
論文 参考訳(メタデータ) (2022-05-02T13:33:43Z) - Embedding Graph Auto-Encoder for Graph Clustering [90.8576971748142]
グラフ自動エンコーダ(GAE)モデルは、半教師付きグラフ畳み込みネットワーク(GCN)に基づく
我々は、グラフクラスタリングのための特定のGAEベースのモデルを設計し、その理論、すなわち、埋め込みグラフオートエンコーダ(EGAE)と整合する。
EGAEは1つのエンコーダと2つのデコーダで構成される。
論文 参考訳(メタデータ) (2020-02-20T09:53:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。