論文の概要: Why Does Dropping Edges Usually Outperform Adding Edges in Graph Contrastive Learning?
- arxiv url: http://arxiv.org/abs/2412.08128v2
- Date: Fri, 13 Dec 2024 02:12:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-16 11:42:55.539587
- Title: Why Does Dropping Edges Usually Outperform Adding Edges in Graph Contrastive Learning?
- Title(参考訳): グラフコントラスト学習において、エッジのドロップは、通常、エッジの追加に優れていますか?
- Authors: Yanchen Xu, Siqi Huang, Hongyuan Zhang, Xuelong Li,
- Abstract要約: グラフがネットワークにどのように適合するかを定量化するために、新しいメトリック、すなわちエラー通過率(EPR)を導入する。
理論的な結論に触発されて,エッジの追加とエッジドロップを併用した新しいGCLアルゴリズムを提案する。
具体的には、EPRから得られる重みに応じてエッジを追加・ドロップすることで、ビューを生成する。
- 参考スコア(独自算出の注目度): 54.44813218411879
- License:
- Abstract: Graph contrastive learning (GCL) has been widely used as an effective self-supervised learning method for graph representation learning. However, how to apply adequate and stable graph augmentation to generating proper views for contrastive learning remains an essential problem. Dropping edges is a primary augmentation in GCL while adding edges is not a common method due to its unstable performance. To our best knowledge, there is no theoretical analysis to study why dropping edges usually outperforms adding edges. To answer this question, we introduce a new metric, namely Error Passing Rate (EPR), to quantify how a graph fits the network. Inspired by the theoretical conclusions, we propose a novel GCL algorithm, Error-PAssing-based Graph Contrastive Learning (EPAGCL), which uses both edge adding and edge dropping as its augmentation. To be specific, we generate views by adding and dropping edges according to the weights derived from EPR. Extensive experiments on various real-world datasets are conducted to validate the correctness of our theoretical analysis and the effectiveness of our proposed algorithm.
- Abstract(参考訳): グラフコントラスト学習(GCL)は,グラフ表現学習に有効な自己教師付き学習手法として広く利用されている。
しかし、コントラスト学習のための適切なビューを生成するために、適切に安定なグラフ拡張を適用する方法が不可欠である。
エッジの追加は不安定な性能のため一般的な方法ではないが、エッジのドロップはGCLの主要な拡張である。
我々の知る限りでは、下降するエッジが通常、エッジを付加するよりも優れている理由を研究する理論的解析は存在しない。
この質問に答えるために、グラフがネットワークにどのように適合するかを定量化するために、エラー通過率(EPR)という新しい指標を導入する。
理論的結論から着想を得た新しいGCLアルゴリズムとして,エッジ付加とエッジドロップを併用した誤り・パッシングに基づくグラフコントラスト学習(EPAGCL)を提案する。
具体的には、EPRから得られる重みに応じてエッジを追加・ドロップすることで、ビューを生成する。
提案アルゴリズムの有効性と理論解析の正確性を検証するために, 実世界の各種データセットに対する大規模な実験を行った。
関連論文リスト
- ADEdgeDrop: Adversarial Edge Dropping for Robust Graph Neural Networks [53.41164429486268]
グラフニューラルネットワーク(GNN)は、近隣ノードからグラフ構造化情報を収集する強力な能力を示した。
GNNの性能は、ノイズや冗長なグラフデータによって引き起こされる一般化の貧弱さと脆弱な堅牢性によって制限される。
本稿では,エッジの除去を誘導する対向エッジ予測器を利用する新しい対向エッジドロップ法 (ADEdgeDrop) を提案する。
論文 参考訳(メタデータ) (2024-03-14T08:31:39Z) - Adversarial Learning Data Augmentation for Graph Contrastive Learning in
Recommendation [56.10351068286499]
グラフコントラスト学習のための学習可能なデータ拡張法(LDA-GCL)を提案する。
提案手法は,InfoMin と InfoMax の原則に従うデータ強化学習とグラフコントラスト学習を含む。
本手法は,データ拡張とユーザやアイテムの効果的な表現を学習するために,対向損失関数を最適化する。
論文 参考訳(メタデータ) (2023-02-05T06:55:51Z) - Are All Edges Necessary? A Unified Framework for Graph Purification [6.795209119198288]
グラフのすべてのエッジが機械学習モデルのトレーニングに必要ではない。
本稿では,新たな視点からグラフデータを浄化するために,エッジをドロップする手法を提案する。
論文 参考訳(メタデータ) (2022-11-09T20:28:25Z) - Graph Contrastive Learning with Implicit Augmentations [36.57536688367965]
Inlicit Graph Contrastive Learning (iGCL)は、グラフトポロジ構造を再構築することにより、変分グラフオートエンコーダから学習した潜時空間の増大を利用する。
グラフレベルとノードレベルの両方のタスクに対する実験結果から,提案手法が最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2022-11-07T17:34:07Z) - Training Robust Graph Neural Networks with Topology Adaptive Edge
Dropping [116.26579152942162]
グラフニューラルネットワーク(GNN)は、グラフ構造情報を利用してネットワークデータから表現をモデル化する処理アーキテクチャである。
彼らの成功にもかかわらず、GNNは限られた訓練データから得られる準最適一般化性能に悩まされている。
本稿では、一般化性能を改善し、堅牢なGNNモデルを学習するためのトポロジ適応エッジドロップ法を提案する。
論文 参考訳(メタデータ) (2021-06-05T13:20:36Z) - LFGCN: Levitating over Graphs with Levy Flights [20.98197935128397]
半教師付き学習のための新しいL'evy Flights Graph Convolutional Networks (LFGCN) 手法を提案する。
また、Girvan-Newman引数に基づくP-DropEdge法を提案する。
このケーススタディでは、LFGCNなどのディープネットワークツールの機械を電力網網の解析に利用しています。
論文 参考訳(メタデータ) (2020-09-04T19:13:48Z) - Iterative Deep Graph Learning for Graph Neural Networks: Better and
Robust Node Embeddings [53.58077686470096]
グラフ構造とグラフ埋め込みを協調的かつ反復的に学習するための、エンドツーエンドのグラフ学習フレームワーク、すなわち、IDGL(Iterative Deep Graph Learning)を提案する。
実験の結果,提案したIDGLモデルは,最先端のベースラインを一貫して上回る,あるいは一致させることができることがわかった。
論文 参考訳(メタデータ) (2020-06-21T19:49:15Z) - Unsupervised Graph Embedding via Adaptive Graph Learning [85.28555417981063]
グラフオートエンコーダ(GAE)は、グラフ埋め込みのための表現学習において強力なツールである。
本稿では,2つの新しい教師なしグラフ埋め込み法,適応グラフ学習(BAGE)による教師なしグラフ埋め込み,変分適応グラフ学習(VBAGE)による教師なしグラフ埋め込みを提案する。
いくつかのデータセットに関する実験的研究により、我々の手法がノードクラスタリング、ノード分類、グラフ可視化タスクにおいて、ベースラインよりも優れていることが実証された。
論文 参考訳(メタデータ) (2020-03-10T02:33:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。