論文の概要: Smoothed Graph Contrastive Learning via Seamless Proximity Integration
- arxiv url: http://arxiv.org/abs/2402.15270v1
- Date: Fri, 23 Feb 2024 11:32:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 14:53:25.539835
- Title: Smoothed Graph Contrastive Learning via Seamless Proximity Integration
- Title(参考訳): シームレス近接積分による平滑化グラフコントラスト学習
- Authors: Maysam Behmanesh, Maks Ovsjanikov
- Abstract要約: グラフコントラスト学習(GCL)はノードペアを正と負に分類することでノード表現を整列させる。
SGCL(Smoothed Graph Contrastive Learning Model)を提案する。
提案したSGCLは, 3つの異なる平滑化手法を取り入れることで, ノード対に付随するペナルティを対照的な損失で調整する。
- 参考スコア(独自算出の注目度): 35.73306919276754
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph contrastive learning (GCL) aligns node representations by classifying
node pairs into positives and negatives using a selection process that
typically relies on establishing correspondences within two augmented graphs.
The conventional GCL approaches incorporate negative samples uniformly in the
contrastive loss, resulting in the equal treatment negative nodes, regardless
of their proximity to the true positive. In this paper, we present a Smoothed
Graph Contrastive Learning model (SGCL), which leverages the geometric
structure of augmented graphs to inject proximity information associated with
positive/negative pairs in the contrastive loss, thus significantly
regularizing the learning process. The proposed SGCL adjusts the penalties
associated with node pairs in the contrastive loss by incorporating three
distinct smoothing techniques that result in proximity aware positives and
negatives. To enhance scalability for large-scale graphs, the proposed
framework incorporates a graph batch-generating strategy that partitions the
given graphs into multiple subgraphs, facilitating efficient training in
separate batches. Through extensive experimentation in the unsupervised setting
on various benchmarks, particularly those of large scale, we demonstrate the
superiority of our proposed framework against recent baselines.
- Abstract(参考訳): グラフコントラスト学習(GCL)は、ノードペアを正と負に分類することでノード表現を整列する。
従来のgclアプローチでは、負のサンプルをコントラスト損失に均一に取り入れており、正の正の値に近づいたとしても、同じ扱いの負のノードとなる。
本稿では, グラフの幾何学的構造を利用して, 相対的損失における正/負のペアに付随する近接情報を注入し, 学習過程を著しく規則化するSGCL(Smoothed Graph Contrastive Learning Model)を提案する。
提案したSGCLは, ノード対に付随するペナルティを, 近接認識正と負の3つの異なる平滑化手法によって調整する。
大規模グラフのスケーラビリティを向上させるため,提案フレームワークでは,与えられたグラフを複数のサブグラフに分割するグラフバッチ生成戦略が組み込まれている。
様々なベンチマーク,特に大規模ベンチマークの教師なし環境での広範な実験を通じて,提案するフレームワークの最近のベースラインに対する優位性を実証した。
関連論文リスト
- Nonlinear Correct and Smooth for Semi-Supervised Learning [1.622641093702668]
グラフベースの半教師付き学習(GSSL)は様々なアプリケーションで成功している。
非線型表現と高次表現を組み込むことで、既存の後処理アプローチを改善するCorrect and Smooth (NLCS)を提案する。
論文 参考訳(メタデータ) (2023-10-09T14:33:32Z) - Graph Self-Contrast Representation Learning [14.519482062111507]
本稿では,新しいグラフ自己コントラストフレームワークGraphSCを提案する。
1つの正のサンプルと1つの負のサンプルしか使用せず、目的として三重項損失を選択する。
我々は,他の19種類の最先端手法に対して,GraphSCの性能を評価するための広範囲な実験を行った。
論文 参考訳(メタデータ) (2023-09-05T15:13:48Z) - STERLING: Synergistic Representation Learning on Bipartite Graphs [78.86064828220613]
二部グラフ表現学習の基本的な課題は、ノードの埋め込みを抽出する方法である。
最近の二部グラフSSL法は、正ノード対と負ノード対を識別することによって埋め込みを学習する対照的な学習に基づいている。
負のノードペアを持たないノード埋め込みを学習するための新しい相乗的表現学習モデル(STERling)を提案する。
論文 参考訳(メタデータ) (2023-01-25T03:21:42Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - Single-Pass Contrastive Learning Can Work for Both Homophilic and
Heterophilic Graph [60.28340453547902]
グラフコントラッシブ・ラーニング(GCL)技術は通常、コントラッシブ・ロスを構築するために単一のインスタンスに対して2つのフォワードパスを必要とする。
既存のGCLアプローチは、強力なパフォーマンス保証を提供していない。
我々はSingle-Pass Graph Contrastive Learning法(SP-GCL)を実装した。
経験的に、SP-GCLが学んだ機能は、計算オーバーヘッドを著しく少なくして、既存の強いベースラインにマッチまたは性能を向上することができる。
論文 参考訳(メタデータ) (2022-11-20T07:18:56Z) - Graph Contrastive Learning with Implicit Augmentations [36.57536688367965]
Inlicit Graph Contrastive Learning (iGCL)は、グラフトポロジ構造を再構築することにより、変分グラフオートエンコーダから学習した潜時空間の増大を利用する。
グラフレベルとノードレベルの両方のタスクに対する実験結果から,提案手法が最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2022-11-07T17:34:07Z) - Unifying Graph Contrastive Learning with Flexible Contextual Scopes [57.86762576319638]
フレキシブルコンテキストスコープを用いたグラフコントラスト学習(略してUGCL)という自己教師型学習手法を提案する。
本アルゴリズムは,隣接行列のパワーを制御し,コンテキストスコープによるフレキシブルな文脈表現を構築する。
局所的スコープと文脈的スコープの両方の表現に基づいて、distLはグラフ表現学習のための非常に単純な対照的な損失関数を最適化する。
論文 参考訳(メタデータ) (2022-10-17T07:16:17Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - Contrastive Laplacian Eigenmaps [37.5297239772525]
グラフの対照的な学習は、類似性の概念の下で類似/異種ノードペアのノード表現を惹きつける/分散する。
我々は、著名なラプラシア固有写像を対照的な学習で拡張し、これらをContrastive Laplacian EigenmapS (COLES) と呼ぶ。
論文 参考訳(メタデータ) (2022-01-14T14:59:05Z) - Effective and Efficient Graph Learning for Multi-view Clustering [173.8313827799077]
マルチビュークラスタリングのための効率的かつ効率的なグラフ学習モデルを提案する。
本手法はテンソルシャッテンp-ノルムの最小化により異なるビューのグラフ間のビュー類似性を利用する。
提案アルゴリズムは時間経済であり,安定した結果を得るとともに,データサイズによく対応している。
論文 参考訳(メタデータ) (2021-08-15T13:14:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。