論文の概要: Smoothed Graph Contrastive Learning via Seamless Proximity Integration
- arxiv url: http://arxiv.org/abs/2402.15270v2
- Date: Tue, 26 Nov 2024 14:50:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-27 13:32:27.761527
- Title: Smoothed Graph Contrastive Learning via Seamless Proximity Integration
- Title(参考訳): Smoothed Graph Contrastive Learning by Seamless Proximity Integration
- Authors: Maysam Behmanesh, Maks Ovsjanikov,
- Abstract要約: グラフコントラスト学習(GCL)はノードペアを正と負に分類することでノード表現を整列させる。
SGCL(Smoothed Graph Contrastive Learning Model)を提案する。
提案したSGCLは,3つの異なる平滑化手法を取り入れることで,ノード対に付随するペナルティを対照的な損失で調整する。
- 参考スコア(独自算出の注目度): 30.247207861739245
- License:
- Abstract: Graph contrastive learning (GCL) aligns node representations by classifying node pairs into positives and negatives using a selection process that typically relies on establishing correspondences within two augmented graphs. The conventional GCL approaches incorporate negative samples uniformly in the contrastive loss, resulting in the equal treatment of negative nodes, regardless of their proximity to the true positive. In this paper, we present a Smoothed Graph Contrastive Learning model (SGCL), which leverages the geometric structure of augmented graphs to inject proximity information associated with positive/negative pairs in the contrastive loss, thus significantly regularizing the learning process. The proposed SGCL adjusts the penalties associated with node pairs in contrastive loss by incorporating three distinct smoothing techniques that result in proximity-aware positives and negatives. To enhance scalability for large-scale graphs, the proposed framework incorporates a graph batch-generating strategy that partitions the given graphs into multiple subgraphs, facilitating efficient training in separate batches. Through extensive experimentation in the unsupervised setting on various benchmarks, particularly those of large scale, we demonstrate the superiority of our proposed framework against recent baselines.
- Abstract(参考訳): グラフコントラスト学習(GCL)は、ノードペアを正と負に分類することでノード表現を整列する。
従来のGCLアプローチでは、負のサンプルが対照的な損失に均一に含まれており、正の正に近づいたとしても、負のノードが等しく扱われる。
本稿では, グラフの幾何学的構造を利用して, 相対的損失において正負のペアに付随する近接情報を注入し, 学習過程を著しく規則化するSGCL(Smoothed Graph Contrastive Learning Model)を提案する。
提案したSGCLは, 近接認識正と負の3つの異なる平滑化手法を組み込むことにより, ノード対に付随するペナルティを対照的な損失で調整する。
大規模グラフのスケーラビリティを向上させるため,提案フレームワークでは,グラフを複数のサブグラフに分割するグラフバッチ生成戦略を導入し,個別のバッチでの効率的なトレーニングを容易にする。
様々なベンチマーク,特に大規模ベンチマークの教師なし環境での広範な実験を通じて,提案するフレームワークの最近のベースラインに対する優位性を実証した。
関連論文リスト
- Self-Supervised Conditional Distribution Learning on Graphs [15.730933577970687]
本稿では,従来の特徴に対して,弱い特徴と強く拡張された特徴の条件分布を整列するエンドツーエンドグラフ表現学習モデルを提案する。
このアライメントは、グラフ構造化データ拡張による本質的な意味情報の破壊のリスクを効果的に低減する。
論文 参考訳(メタデータ) (2024-11-20T07:26:36Z) - Negative-Free Self-Supervised Gaussian Embedding of Graphs [29.26519601854811]
グラフコントラスト学習(GCL)は、有望なグラフ自己教師型学習フレームワークとして登場した。
正規化された等方的ガウス関数に従って分布する点が単位超球面全体に均一に広がるという事実に着想を得た、一様性を達成するための負の目的を提案する。
提案手法は,既存のGCL法と比較して,少ないパラメータ,短いトレーニング時間,少ないメモリ消費で競合性能を実現する。
論文 参考訳(メタデータ) (2024-11-02T07:04:40Z) - Bootstrap Latents of Nodes and Neighbors for Graph Self-Supervised Learning [27.278097015083343]
対照的な学習は、モデルの崩壊を防ぎ、差別的な表現を学ぶために負のサンプルを必要とする。
我々は、アンカーノードに対する隣人の支持率を予測するために、クロスアテンションモジュールを導入する。
本手法は, 負の正試料と雑音の正試料とのクラス衝突を緩和し, クラス内コンパクト度を同時に向上する。
論文 参考訳(メタデータ) (2024-08-09T14:17:52Z) - Bilateral Unsymmetrical Graph Contrastive Learning for Recommendation [12.945782054710113]
両面非対称グラフコントラスト学習(BusGCL)と呼ばれる推薦タスクのための新しいフレームワークを提案する。
BusGCLは、スライスされたユーザとアイテムグラフのユーザ-itemノード関係密度の両側非対称性を、両スライスしたコントラストトレーニングより優れていると考えている。
2つの公開データセットに関する総合的な実験は、様々なレコメンデーション手法と比較して、BusGCLの優位性を証明している。
論文 参考訳(メタデータ) (2024-03-22T09:58:33Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - Single-Pass Contrastive Learning Can Work for Both Homophilic and
Heterophilic Graph [60.28340453547902]
グラフコントラッシブ・ラーニング(GCL)技術は通常、コントラッシブ・ロスを構築するために単一のインスタンスに対して2つのフォワードパスを必要とする。
既存のGCLアプローチは、強力なパフォーマンス保証を提供していない。
我々はSingle-Pass Graph Contrastive Learning法(SP-GCL)を実装した。
経験的に、SP-GCLが学んだ機能は、計算オーバーヘッドを著しく少なくして、既存の強いベースラインにマッチまたは性能を向上することができる。
論文 参考訳(メタデータ) (2022-11-20T07:18:56Z) - Unifying Graph Contrastive Learning with Flexible Contextual Scopes [57.86762576319638]
フレキシブルコンテキストスコープを用いたグラフコントラスト学習(略してUGCL)という自己教師型学習手法を提案する。
本アルゴリズムは,隣接行列のパワーを制御し,コンテキストスコープによるフレキシブルな文脈表現を構築する。
局所的スコープと文脈的スコープの両方の表現に基づいて、distLはグラフ表現学習のための非常に単純な対照的な損失関数を最適化する。
論文 参考訳(メタデータ) (2022-10-17T07:16:17Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - A Robust and Generalized Framework for Adversarial Graph Embedding [73.37228022428663]
本稿では,AGE という逆グラフ埋め込みのための頑健なフレームワークを提案する。
AGEは、暗黙の分布から強化された負のサンプルとして偽の隣接ノードを生成する。
本フレームワークでは,3種類のグラフデータを扱う3つのモデルを提案する。
論文 参考訳(メタデータ) (2021-05-22T07:05:48Z) - Diversified Multiscale Graph Learning with Graph Self-Correction [55.43696999424127]
2つのコア成分を組み込んだ多次元グラフ学習モデルを提案します。
情報埋め込みグラフを生成するグラフ自己補正(GSC)機構、および入力グラフの包括的な特性評価を達成するために多様性ブースト正規化(DBR)。
一般的なグラフ分類ベンチマークの実験は、提案されたGSCメカニズムが最先端のグラフプーリング方法よりも大幅に改善されることを示しています。
論文 参考訳(メタデータ) (2021-03-17T16:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。