論文の概要: LocalGCL: Local-aware Contrastive Learning for Graphs
- arxiv url: http://arxiv.org/abs/2402.17345v1
- Date: Tue, 27 Feb 2024 09:23:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 17:03:31.974070
- Title: LocalGCL: Local-aware Contrastive Learning for Graphs
- Title(参考訳): LocalGCL: グラフのためのローカル認識型コントラスト学習
- Authors: Haojun Jiang, Jiawei Sun, Jie Li, Chentao Wu
- Abstract要約: グラフ表現学習者として、アンダーラインローカル認識アンダーライングラフアンダーライン比較アンダーラインラーニング(textbfmethnametrim)を提案する。
実験は、最先端の手法に対するミートネームの優位性を検証し、包括的なグラフ表現学習者としての可能性を実証した。
- 参考スコア(独自算出の注目度): 17.04219759259025
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph representation learning (GRL) makes considerable progress recently,
which encodes graphs with topological structures into low-dimensional
embeddings. Meanwhile, the time-consuming and costly process of annotating
graph labels manually prompts the growth of self-supervised learning (SSL)
techniques. As a dominant approach of SSL, Contrastive learning (CL) learns
discriminative representations by differentiating between positive and negative
samples. However, when applied to graph data, it overemphasizes global patterns
while neglecting local structures. To tackle the above issue, we propose
\underline{Local}-aware \underline{G}raph \underline{C}ontrastive
\underline{L}earning (\textbf{\methnametrim}), a self-supervised learning
framework that supplementarily captures local graph information with
masking-based modeling compared with vanilla contrastive learning. Extensive
experiments validate the superiority of \methname against state-of-the-art
methods, demonstrating its promise as a comprehensive graph representation
learner.
- Abstract(参考訳): グラフ表現学習(GRL)は、トポロジカルな構造を持つグラフを低次元の埋め込みに符号化する。
一方、グラフラベルを手動でアノテートする時間とコストのかかるプロセスは、自己教師あり学習(SSL)技術の成長を促す。
SSLの主流のアプローチとして、Contrastive Learning (CL)は、正と負のサンプルを区別することで差別的な表現を学ぶ。
しかし、グラフデータに適用すると、局所構造を無視しながらグローバルパターンを過度に強調する。
そこで本研究では,局所グラフ情報をマスキングベースのモデルで補足的にキャプチャする自己教師付き学習フレームワークである \underline{local}-aware \underline{g}raph \underline{c}ontrastive \underline{l}earning (\textbf{\methnametrim})を提案する。
包括的グラフ表現学習者としての可能性を実証し, 最先端手法に対する<methname>の優位性を検証した。
関連論文リスト
- Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - Unifying Graph Contrastive Learning with Flexible Contextual Scopes [57.86762576319638]
フレキシブルコンテキストスコープを用いたグラフコントラスト学習(略してUGCL)という自己教師型学習手法を提案する。
本アルゴリズムは,隣接行列のパワーを制御し,コンテキストスコープによるフレキシブルな文脈表現を構築する。
局所的スコープと文脈的スコープの両方の表現に基づいて、distLはグラフ表現学習のための非常に単純な対照的な損失関数を最適化する。
論文 参考訳(メタデータ) (2022-10-17T07:16:17Z) - Adversarial Graph Contrastive Learning with Information Regularization [51.14695794459399]
コントラスト学習はグラフ表現学習において有効な方法である。
グラフ上のデータ拡張は、はるかに直感的ではなく、高品質のコントラスト的なサンプルを提供するのがずっと難しい。
逆グラフ比較学習(Adversarial Graph Contrastive Learning, ARIEL)を提案する。
さまざまな実世界のデータセット上でのノード分類タスクにおいて、現在のグラフのコントラスト学習方法よりも一貫して優れています。
論文 参考訳(メタデータ) (2022-02-14T05:54:48Z) - Dual Space Graph Contrastive Learning [82.81372024482202]
本研究では,新しいグラフコントラスト学習手法,すなわち textbfDual textbfSpace textbfGraph textbfContrastive (DSGC) Learningを提案する。
両空間にはグラフデータを埋め込み空間に表現する独自の利点があるので、グラフコントラスト学習を用いて空間をブリッジし、双方の利点を活用することを期待する。
論文 参考訳(メタデータ) (2022-01-19T04:10:29Z) - Multi-Level Graph Contrastive Learning [38.022118893733804]
本稿では,グラフの空間ビューを対比することで,グラフデータの堅牢な表現を学習するためのマルチレベルグラフコントラスト学習(MLGCL)フレームワークを提案する。
元のグラフは1次近似構造であり、不確実性や誤りを含むが、符号化機能によって生成された$k$NNグラフは高次近接性を保持する。
MLGCLは、7つのデータセット上の既存の最先端グラフ表現学習法と比較して有望な結果が得られることを示す。
論文 参考訳(メタデータ) (2021-07-06T14:24:43Z) - Self-supervised Graph-level Representation Learning with Local and
Global Structure [71.45196938842608]
自己教師付き全グラフ表現学習のためのローカル・インスタンスとグローバル・セマンティック・ラーニング(GraphLoG)という統合フレームワークを提案する。
GraphLoGは、局所的な類似点の保存に加えて、グローバルなセマンティッククラスタをキャプチャする階層的なプロトタイプも導入している。
モデル学習のための効率的なオンライン予測最大化(EM)アルゴリズムがさらに開発された。
論文 参考訳(メタデータ) (2021-06-08T05:25:38Z) - Graph Barlow Twins: A self-supervised representation learning framework
for graphs [25.546290138565393]
本稿では,自己教師付きグラフ表現学習のためのフレームワークであるグラフバーローツインを提案する。
負のサンプルではなく、相互相関に基づく損失関数を利用する。
提案手法は,最高の自己管理手法と完全教師付き手法として,競争力のある結果が得られることを示す。
論文 参考訳(メタデータ) (2021-06-04T13:10:51Z) - Sub-graph Contrast for Scalable Self-Supervised Graph Representation
Learning [21.0019144298605]
既存のグラフニューラルネットワークは、計算量やメモリコストが限られているため、完全なグラフデータで供給される。
textscSubg-Conは、中央ノードとそのサンプルサブグラフ間の強い相関を利用して、地域構造情報をキャプチャすることで提案される。
既存のグラフ表現学習アプローチと比較して、textscSubg-Conは、より弱い監視要件、モデル学習のスケーラビリティ、並列化において、顕著なパフォーマンス上のアドバンテージを持っています。
論文 参考訳(メタデータ) (2020-09-22T01:58:19Z) - Contrastive and Generative Graph Convolutional Networks for Graph-based
Semi-Supervised Learning [64.98816284854067]
グラフベースのSemi-Supervised Learning (SSL)は、少数のラベル付きデータのラベルをグラフ経由で残りの巨大なラベル付きデータに転送することを目的としている。
本稿では,データ類似性とグラフ構造を両立させ,監視信号の強化を図るため,新しいGCNベースのSSLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-15T13:59:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。