論文の概要: Smoothed Graph Contrastive Learning via Seamless Proximity Integration
- arxiv url: http://arxiv.org/abs/2402.15270v2
- Date: Tue, 26 Nov 2024 14:50:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-27 13:32:27.761527
- Title: Smoothed Graph Contrastive Learning via Seamless Proximity Integration
- Title(参考訳): Smoothed Graph Contrastive Learning by Seamless Proximity Integration
- Authors: Maysam Behmanesh, Maks Ovsjanikov,
- Abstract要約: グラフコントラスト学習(GCL)はノードペアを正と負に分類することでノード表現を整列させる。
SGCL(Smoothed Graph Contrastive Learning Model)を提案する。
提案したSGCLは,3つの異なる平滑化手法を取り入れることで,ノード対に付随するペナルティを対照的な損失で調整する。
- 参考スコア(独自算出の注目度): 30.247207861739245
- License:
- Abstract: Graph contrastive learning (GCL) aligns node representations by classifying node pairs into positives and negatives using a selection process that typically relies on establishing correspondences within two augmented graphs. The conventional GCL approaches incorporate negative samples uniformly in the contrastive loss, resulting in the equal treatment of negative nodes, regardless of their proximity to the true positive. In this paper, we present a Smoothed Graph Contrastive Learning model (SGCL), which leverages the geometric structure of augmented graphs to inject proximity information associated with positive/negative pairs in the contrastive loss, thus significantly regularizing the learning process. The proposed SGCL adjusts the penalties associated with node pairs in contrastive loss by incorporating three distinct smoothing techniques that result in proximity-aware positives and negatives. To enhance scalability for large-scale graphs, the proposed framework incorporates a graph batch-generating strategy that partitions the given graphs into multiple subgraphs, facilitating efficient training in separate batches. Through extensive experimentation in the unsupervised setting on various benchmarks, particularly those of large scale, we demonstrate the superiority of our proposed framework against recent baselines.
- Abstract(参考訳): グラフコントラスト学習(GCL)は、ノードペアを正と負に分類することでノード表現を整列する。
従来のGCLアプローチでは、負のサンプルが対照的な損失に均一に含まれており、正の正に近づいたとしても、負のノードが等しく扱われる。
本稿では, グラフの幾何学的構造を利用して, 相対的損失において正負のペアに付随する近接情報を注入し, 学習過程を著しく規則化するSGCL(Smoothed Graph Contrastive Learning Model)を提案する。
提案したSGCLは, 近接認識正と負の3つの異なる平滑化手法を組み込むことにより, ノード対に付随するペナルティを対照的な損失で調整する。
大規模グラフのスケーラビリティを向上させるため,提案フレームワークでは,グラフを複数のサブグラフに分割するグラフバッチ生成戦略を導入し,個別のバッチでの効率的なトレーニングを容易にする。
様々なベンチマーク,特に大規模ベンチマークの教師なし環境での広範な実験を通じて,提案するフレームワークの最近のベースラインに対する優位性を実証した。
関連論文リスト
- Oversmoothing as Loss of Sign: Towards Structural Balance in Graph Neural Networks [54.62268052283014]
オーバースムーシングはグラフニューラルネットワーク(GNN)において一般的な問題である
反過剰化手法の3つの主要なクラスは、数学的に符号付きグラフ上のメッセージパッシングと解釈できる。
負のエッジはノードをある程度撃退することができ、これらのメソッドが過剰なスムースを緩和する方法に関する深い洞察を提供する。
論文 参考訳(メタデータ) (2025-02-17T03:25:36Z) - Graph Structure Refinement with Energy-based Contrastive Learning [56.957793274727514]
グラフの構造と表現を学習するための生成訓練と識別訓練のジョイントに基づく教師なし手法を提案する。
本稿では,ECL-GSR(Energy-based Contrastive Learning)によるグラフ構造再構成(GSR)フレームワークを提案する。
ECL-GSRは、主要なベースラインに対するサンプルやメモリの少ない高速なトレーニングを実現し、下流タスクの単純さと効率性を強調している。
論文 参考訳(メタデータ) (2024-12-20T04:05:09Z) - Conditional Distribution Learning on Graphs [15.730933577970687]
半教師付きグラフ分類のためのグラフ構造化データからグラフ表現を学習する条件分布学習(CDL)法を提案する。
具体的には、元の特徴に対して弱機能および強拡張機能の条件分布を整列するエンドツーエンドグラフ表現学習モデルを提案する。
論文 参考訳(メタデータ) (2024-11-20T07:26:36Z) - Negative-Free Self-Supervised Gaussian Embedding of Graphs [29.26519601854811]
グラフコントラスト学習(GCL)は、有望なグラフ自己教師型学習フレームワークとして登場した。
正規化された等方的ガウス関数に従って分布する点が単位超球面全体に均一に広がるという事実に着想を得た、一様性を達成するための負の目的を提案する。
提案手法は,既存のGCL法と比較して,少ないパラメータ,短いトレーニング時間,少ないメモリ消費で競合性能を実現する。
論文 参考訳(メタデータ) (2024-11-02T07:04:40Z) - Bootstrap Latents of Nodes and Neighbors for Graph Self-Supervised Learning [27.278097015083343]
対照的な学習は、モデルの崩壊を防ぎ、差別的な表現を学ぶために負のサンプルを必要とする。
我々は、アンカーノードに対する隣人の支持率を予測するために、クロスアテンションモジュールを導入する。
本手法は, 負の正試料と雑音の正試料とのクラス衝突を緩和し, クラス内コンパクト度を同時に向上する。
論文 参考訳(メタデータ) (2024-08-09T14:17:52Z) - Bilateral Unsymmetrical Graph Contrastive Learning for Recommendation [12.945782054710113]
両面非対称グラフコントラスト学習(BusGCL)と呼ばれる推薦タスクのための新しいフレームワークを提案する。
BusGCLは、スライスされたユーザとアイテムグラフのユーザ-itemノード関係密度の両側非対称性を、両スライスしたコントラストトレーニングより優れていると考えている。
2つの公開データセットに関する総合的な実験は、様々なレコメンデーション手法と比較して、BusGCLの優位性を証明している。
論文 参考訳(メタデータ) (2024-03-22T09:58:33Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - Single-Pass Contrastive Learning Can Work for Both Homophilic and
Heterophilic Graph [60.28340453547902]
グラフコントラッシブ・ラーニング(GCL)技術は通常、コントラッシブ・ロスを構築するために単一のインスタンスに対して2つのフォワードパスを必要とする。
既存のGCLアプローチは、強力なパフォーマンス保証を提供していない。
我々はSingle-Pass Graph Contrastive Learning法(SP-GCL)を実装した。
経験的に、SP-GCLが学んだ機能は、計算オーバーヘッドを著しく少なくして、既存の強いベースラインにマッチまたは性能を向上することができる。
論文 参考訳(メタデータ) (2022-11-20T07:18:56Z) - Unifying Graph Contrastive Learning with Flexible Contextual Scopes [57.86762576319638]
フレキシブルコンテキストスコープを用いたグラフコントラスト学習(略してUGCL)という自己教師型学習手法を提案する。
本アルゴリズムは,隣接行列のパワーを制御し,コンテキストスコープによるフレキシブルな文脈表現を構築する。
局所的スコープと文脈的スコープの両方の表現に基づいて、distLはグラフ表現学習のための非常に単純な対照的な損失関数を最適化する。
論文 参考訳(メタデータ) (2022-10-17T07:16:17Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。