論文の概要: Dual-Kernel Graph Community Contrastive Learning
- arxiv url: http://arxiv.org/abs/2511.08287v1
- Date: Wed, 12 Nov 2025 01:50:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.739527
- Title: Dual-Kernel Graph Community Contrastive Learning
- Title(参考訳): Dual-Kernel Graphコミュニティコントラスト学習
- Authors: Xiang Chen, Kun Yue, Wenjie Liu, Zhenyu Zhang, Liang Duan,
- Abstract要約: Graph Contrastive Learning (GCL)は、グラフニューラルネットワーク(GNN)をトレーニングするための強力なパラダイムとして登場した。
本稿では,入力グラフを相互接続ノード集合のコンパクトネットワークに変換する,効率的なGCLフレームワークを提案する。
提案手法は,有効性とスケーラビリティの両面で,最先端のGCLベースラインを上回っている。
- 参考スコア(独自算出の注目度): 14.92920991249099
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Contrastive Learning (GCL) has emerged as a powerful paradigm for training Graph Neural Networks (GNNs) in the absence of task-specific labels. However, its scalability on large-scale graphs is hindered by the intensive message passing mechanism of GNN and the quadratic computational complexity of contrastive loss over positive and negative node pairs. To address these issues, we propose an efficient GCL framework that transforms the input graph into a compact network of interconnected node sets while preserving structural information across communities. We firstly introduce a kernelized graph community contrastive loss with linear complexity, enabling effective information transfer among node sets to capture hierarchical structural information of the graph. We then incorporate a knowledge distillation technique into the decoupled GNN architecture to accelerate inference while maintaining strong generalization performance. Extensive experiments on sixteen real-world datasets of varying scales demonstrate that our method outperforms state-of-the-art GCL baselines in both effectiveness and scalability.
- Abstract(参考訳): グラフコントラスト学習(GCL)は、タスク固有のラベルがない場合にグラフニューラルネットワーク(GNN)をトレーニングするための強力なパラダイムとして登場した。
しかし、大規模グラフ上のスケーラビリティは、GNNの集中的なメッセージパッシング機構と、正と負のノード対に対する対照的な損失の2次計算複雑性によって妨げられている。
これらの問題に対処するため,コミュニティ間で構造情報を保存しながら,入力グラフを相互接続ノード集合のコンパクトネットワークに変換する効率的なGCLフレームワークを提案する。
まず,ノード間の効率的な情報伝達により,グラフの階層構造情報を捕捉する。
次に, 知識蒸留手法を分離したGNNアーキテクチャに組み込んで, 高い一般化性能を維持しつつ, 推論を高速化する。
様々なスケールの16の実世界のデータセットに対する大規模な実験により、我々の手法は、有効性とスケーラビリティの両方において最先端のGCLベースラインよりも優れていることを示した。
関連論文リスト
- GADPN: Graph Adaptive Denoising and Perturbation Networks via Singular Value Decomposition [6.24191713518868]
GADPNはグラフ構造学習フレームワークであり、低ランクな denoising と一般化された構造摂動によってグラフトポロジーを適応的に洗練する。
最先端のパフォーマンスを実現し、効率を大幅に向上させる。
グラフ構造を強固に学習する能力を検証することで、不合理なグラフに挑戦する上で特に大きな利益をもたらす。
論文 参考訳(メタデータ) (2026-01-13T05:25:32Z) - Parallelizing Node-Level Explainability in Graph Neural Networks [0.3262230127283452]
グラフニューラルネットワーク(GNN)は、幅広いタスクにおいて顕著なパフォーマンスを示している。
ノード分類において、ノードレベルの説明可能性は非常に時間がかかり、グラフのサイズが大きくなる。
本稿では,グラフ分割によるGNNにおけるノードレベルの説明可能性の並列化手法を提案する。
論文 参考訳(メタデータ) (2026-01-08T10:39:48Z) - Attention Beyond Neighborhoods: Reviving Transformer for Graph Clustering [21.941792185132996]
Attentive Graph Clustering Network (AGCN)は、グラフが注目されているという概念を再解釈する新しいアーキテクチャである。
AGCNはアテンション機構をグラフ構造に埋め込み、効果的なグローバル情報抽出を可能にする。
我々のフレームワークは、AGCNの挙動をグラフニューラルネットワーク(GNN)やトランスフォーマーと対比するために理論解析を取り入れている。
論文 参考訳(メタデータ) (2025-09-18T14:51:13Z) - ScaleGNN: Towards Scalable Graph Neural Networks via Adaptive High-order Neighboring Feature Fusion [73.85920403511706]
スケーラブルで効果的なグラフ学習のためのマルチホップノード機能を適応的に融合する新しいフレームワークであるScaleGNNを提案する。
予測精度と計算効率の両面で,ScaleGNNは最先端のGNNよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2025-04-22T14:05:11Z) - Graph Structure Refinement with Energy-based Contrastive Learning [56.957793274727514]
グラフの構造と表現を学習するための生成訓練と識別訓練のジョイントに基づく教師なし手法を提案する。
本稿では,ECL-GSR(Energy-based Contrastive Learning)によるグラフ構造再構成(GSR)フレームワークを提案する。
ECL-GSRは、主要なベースラインに対するサンプルやメモリの少ない高速なトレーニングを実現し、下流タスクの単純さと効率性を強調している。
論文 参考訳(メタデータ) (2024-12-20T04:05:09Z) - Conditional Distribution Learning on Graphs [15.730933577970687]
半教師付きグラフ分類のためのグラフ構造化データからグラフ表現を学習する条件分布学習(CDL)法を提案する。
具体的には、元の特徴に対して弱機能および強拡張機能の条件分布を整列するエンドツーエンドグラフ表現学習モデルを提案する。
論文 参考訳(メタデータ) (2024-11-20T07:26:36Z) - Learning to Model Graph Structural Information on MLPs via Graph Structure Self-Contrasting [50.181824673039436]
本稿では,グラフ構造情報をメッセージパッシングなしで学習するグラフ構造自己コントラスト(GSSC)フレームワークを提案する。
提案するフレームワークは,構造情報を事前知識として暗黙的にのみ組み込む,MLP(Multi-Layer Perceptrons)に基づいている。
これはまず、近傍の潜在的非形式的あるいはノイズの多いエッジを取り除くために構造的スペーシングを適用し、その後、スペーシングされた近傍で構造的自己コントラストを行い、ロバストなノード表現を学ぶ。
論文 参考訳(メタデータ) (2024-09-09T12:56:02Z) - Learning Strong Graph Neural Networks with Weak Information [64.64996100343602]
我々は、弱い情報(GLWI)を用いたグラフ学習問題に対する原則的アプローチを開発する。
非完全構造を持つ入力グラフ上で長距離情報伝搬を行うデュアルチャネルGNNフレームワークであるD$2$PTを提案するが、グローバルな意味的類似性を符号化するグローバルグラフも提案する。
論文 参考訳(メタデータ) (2023-05-29T04:51:09Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Adversarial Graph Augmentation to Improve Graph Contrastive Learning [21.54343383921459]
本稿では,GNNがトレーニング中に冗長な情報を捕捉することを避けるために,AD-GCL(adversarial-GCL)と呼ばれる新しい原理を提案する。
我々は、AD-GCLを最先端のGCL法と比較し、教師なしで最大$14%、転送で$6%、半教師なしの学習環境で$3%の性能向上を達成した。
論文 参考訳(メタデータ) (2021-06-10T15:34:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。