論文の概要: Dual-Kernel Graph Community Contrastive Learning
- arxiv url: http://arxiv.org/abs/2511.08287v1
- Date: Wed, 12 Nov 2025 01:50:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.739527
- Title: Dual-Kernel Graph Community Contrastive Learning
- Title(参考訳): Dual-Kernel Graphコミュニティコントラスト学習
- Authors: Xiang Chen, Kun Yue, Wenjie Liu, Zhenyu Zhang, Liang Duan,
- Abstract要約: Graph Contrastive Learning (GCL)は、グラフニューラルネットワーク(GNN)をトレーニングするための強力なパラダイムとして登場した。
本稿では,入力グラフを相互接続ノード集合のコンパクトネットワークに変換する,効率的なGCLフレームワークを提案する。
提案手法は,有効性とスケーラビリティの両面で,最先端のGCLベースラインを上回っている。
- 参考スコア(独自算出の注目度): 14.92920991249099
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Contrastive Learning (GCL) has emerged as a powerful paradigm for training Graph Neural Networks (GNNs) in the absence of task-specific labels. However, its scalability on large-scale graphs is hindered by the intensive message passing mechanism of GNN and the quadratic computational complexity of contrastive loss over positive and negative node pairs. To address these issues, we propose an efficient GCL framework that transforms the input graph into a compact network of interconnected node sets while preserving structural information across communities. We firstly introduce a kernelized graph community contrastive loss with linear complexity, enabling effective information transfer among node sets to capture hierarchical structural information of the graph. We then incorporate a knowledge distillation technique into the decoupled GNN architecture to accelerate inference while maintaining strong generalization performance. Extensive experiments on sixteen real-world datasets of varying scales demonstrate that our method outperforms state-of-the-art GCL baselines in both effectiveness and scalability.
- Abstract(参考訳): グラフコントラスト学習(GCL)は、タスク固有のラベルがない場合にグラフニューラルネットワーク(GNN)をトレーニングするための強力なパラダイムとして登場した。
しかし、大規模グラフ上のスケーラビリティは、GNNの集中的なメッセージパッシング機構と、正と負のノード対に対する対照的な損失の2次計算複雑性によって妨げられている。
これらの問題に対処するため,コミュニティ間で構造情報を保存しながら,入力グラフを相互接続ノード集合のコンパクトネットワークに変換する効率的なGCLフレームワークを提案する。
まず,ノード間の効率的な情報伝達により,グラフの階層構造情報を捕捉する。
次に, 知識蒸留手法を分離したGNNアーキテクチャに組み込んで, 高い一般化性能を維持しつつ, 推論を高速化する。
様々なスケールの16の実世界のデータセットに対する大規模な実験により、我々の手法は、有効性とスケーラビリティの両方において最先端のGCLベースラインよりも優れていることを示した。
関連論文リスト
- Attention Beyond Neighborhoods: Reviving Transformer for Graph Clustering [21.941792185132996]
Attentive Graph Clustering Network (AGCN)は、グラフが注目されているという概念を再解釈する新しいアーキテクチャである。
AGCNはアテンション機構をグラフ構造に埋め込み、効果的なグローバル情報抽出を可能にする。
我々のフレームワークは、AGCNの挙動をグラフニューラルネットワーク(GNN)やトランスフォーマーと対比するために理論解析を取り入れている。
論文 参考訳(メタデータ) (2025-09-18T14:51:13Z) - ScaleGNN: Towards Scalable Graph Neural Networks via Adaptive High-order Neighboring Feature Fusion [73.85920403511706]
スケーラブルで効果的なグラフ学習のためのマルチホップノード機能を適応的に融合する新しいフレームワークであるScaleGNNを提案する。
予測精度と計算効率の両面で,ScaleGNNは最先端のGNNよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2025-04-22T14:05:11Z) - Graph Structure Refinement with Energy-based Contrastive Learning [56.957793274727514]
グラフの構造と表現を学習するための生成訓練と識別訓練のジョイントに基づく教師なし手法を提案する。
本稿では,ECL-GSR(Energy-based Contrastive Learning)によるグラフ構造再構成(GSR)フレームワークを提案する。
ECL-GSRは、主要なベースラインに対するサンプルやメモリの少ない高速なトレーニングを実現し、下流タスクの単純さと効率性を強調している。
論文 参考訳(メタデータ) (2024-12-20T04:05:09Z) - Conditional Distribution Learning on Graphs [15.730933577970687]
半教師付きグラフ分類のためのグラフ構造化データからグラフ表現を学習する条件分布学習(CDL)法を提案する。
具体的には、元の特徴に対して弱機能および強拡張機能の条件分布を整列するエンドツーエンドグラフ表現学習モデルを提案する。
論文 参考訳(メタデータ) (2024-11-20T07:26:36Z) - Learning Strong Graph Neural Networks with Weak Information [64.64996100343602]
我々は、弱い情報(GLWI)を用いたグラフ学習問題に対する原則的アプローチを開発する。
非完全構造を持つ入力グラフ上で長距離情報伝搬を行うデュアルチャネルGNNフレームワークであるD$2$PTを提案するが、グローバルな意味的類似性を符号化するグローバルグラフも提案する。
論文 参考訳(メタデータ) (2023-05-29T04:51:09Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - Adversarial Graph Augmentation to Improve Graph Contrastive Learning [21.54343383921459]
本稿では,GNNがトレーニング中に冗長な情報を捕捉することを避けるために,AD-GCL(adversarial-GCL)と呼ばれる新しい原理を提案する。
我々は、AD-GCLを最先端のGCL法と比較し、教師なしで最大$14%、転送で$6%、半教師なしの学習環境で$3%の性能向上を達成した。
論文 参考訳(メタデータ) (2021-06-10T15:34:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。