論文の概要: Fractal Graph Contrastive Learning
- arxiv url: http://arxiv.org/abs/2505.11356v2
- Date: Thu, 22 May 2025 14:40:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 12:25:14.984193
- Title: Fractal Graph Contrastive Learning
- Title(参考訳): フラクタルグラフコントラスト学習
- Authors: Nero Z. Li, Xuehao Zhai, Zhichao Shi, Boshen Shi, Xuhui Jiang,
- Abstract要約: フラクタルグラフコントラスト学習(Fractal Graph Contrastive Learning, FractalGCL)は,フラクタル自己相似性を利用してグローバルなトポロジカルコヒーレンスを強制する理論駆動フレームワークである。
FractalGCLは、2つの重要なイノベーションを紹介している: 再正規化に基づく拡張は、ボックス被覆によって構造的に整列したポジティブなビューを生成する。
実験によると、FractalGCLは標準ベンチマークで最先端の結果を提供するだけでなく、従来のトラフィックネットワークのベースラインを平均で約7%上回っている。
- 参考スコア(独自算出の注目度): 0.4369058206183195
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While Graph Contrastive Learning (GCL) has attracted considerable attention in the field of graph self-supervised learning, its performance heavily relies on data augmentations that are expected to generate semantically consistent positive pairs. Existing strategies typically resort to random perturbations or local structure preservation, yet lack explicit control over global structural consistency between augmented views. To address this limitation, we propose Fractal Graph Contrastive Learning (FractalGCL), a theory-driven framework that leverages fractal self-similarity to enforce global topological coherence. FractalGCL introduces two key innovations: a renormalisation-based augmentation that generates structurally aligned positive views via box coverings; and a fractal-dimension-aware contrastive loss that aligns graph embeddings according to their fractal dimensions. While combining the two innovations markedly boosts graph-representation quality, it also adds non-trivial computational overhead. To mitigate the computational overhead of fractal dimension estimation, we derive a one-shot estimator by proving that the dimension discrepancy between original and renormalised graphs converges weakly to a centred Gaussian distribution. This theoretical insight enables a reduction in dimension computation cost by an order of magnitude, cutting overall training time by approximately 61%. The experiments show that FractalGCL not only delivers state-of-the-art results on standard benchmarks but also outperforms traditional baselines on traffic networks by an average margin of about remarkably 7%. Codes are available at (https://anonymous.4open.science/r/FractalGCL-0511).
- Abstract(参考訳): グラフコントラスト学習(GCL)はグラフ自己教師学習の分野で大きな注目を集めているが、その性能は意味論的に一貫した正のペアを生成することが期待されるデータ拡張に大きく依存している。
既存の戦略は、通常ランダムな摂動や局所的な構造保存を頼りにしているが、拡張ビュー間のグローバルな構造的整合性に対する明確な制御は欠如している。
この制限に対処するために,フラクタルグラフコントラスト学習(Fractal Graph Contrastive Learning, FractalGCL)を提案する。
FractalGCLは、2つの重要なイノベーションを紹介している: 再正規化に基づく拡張は、ボックス被覆によって構造的に整列したポジティブなビューを生成する。
この2つのイノベーションを組み合わせることで、グラフ表現の品質が著しく向上する一方、計算オーバーヘッドが不要になる。
フラクタル次元推定の計算オーバーヘッドを軽減するために、原グラフと再正規化グラフの間の次元差が中心となるガウス分布に弱収束することを証明し、ワンショット推定器を導出する。
この理論的な洞察により、次元計算コストを桁違いに削減し、全体のトレーニング時間を約61%削減することができる。
実験によると、FractalGCLは標準ベンチマークで最先端の結果を提供するだけでなく、従来のトラフィックネットワークのベースラインを平均で約7%上回っている。
コードはhttps://anonymous.4open.science/r/FractalGCL-0511で公開されている。
関連論文リスト
- AS-GCL: Asymmetric Spectral Augmentation on Graph Contrastive Learning [25.07818336162072]
グラフ・コントラシブ・ラーニング(GCL)は,グラフ構造化データの自己教師型学習における最前線として登場した。
グラフのコントラスト学習に非対称スペクトル拡張を取り入れたAS-GCLという新しいパラダイムを提案する。
提案手法は各コンポーネントに大幅な拡張をもたらす。
論文 参考訳(メタデータ) (2025-02-19T08:22:57Z) - Graph Structure Refinement with Energy-based Contrastive Learning [56.957793274727514]
グラフの構造と表現を学習するための生成訓練と識別訓練のジョイントに基づく教師なし手法を提案する。
本稿では,ECL-GSR(Energy-based Contrastive Learning)によるグラフ構造再構成(GSR)フレームワークを提案する。
ECL-GSRは、主要なベースラインに対するサンプルやメモリの少ない高速なトレーニングを実現し、下流タスクの単純さと効率性を強調している。
論文 参考訳(メタデータ) (2024-12-20T04:05:09Z) - Conditional Distribution Learning on Graphs [15.730933577970687]
半教師付きグラフ分類のためのグラフ構造化データからグラフ表現を学習する条件分布学習(CDL)法を提案する。
具体的には、元の特徴に対して弱機能および強拡張機能の条件分布を整列するエンドツーエンドグラフ表現学習モデルを提案する。
論文 参考訳(メタデータ) (2024-11-20T07:26:36Z) - Unitary convolutions for learning on graphs and groups [0.9899763598214121]
我々は、訓練中により安定したより深いネットワークを可能にするユニタリグループ畳み込みについて研究する。
論文の主な焦点はグラフニューラルネットワークであり、ユニタリグラフの畳み込みがオーバー・スムーシングを確実に回避していることを示す。
実験結果から,ベンチマークデータセット上でのユニタリグラフ畳み込みネットワークの競合性能が確認できた。
論文 参考訳(メタデータ) (2024-10-07T21:09:14Z) - Deep Contrastive Graph Learning with Clustering-Oriented Guidance [61.103996105756394]
グラフ畳み込みネットワーク(GCN)は、グラフベースのクラスタリングを改善する上で大きな可能性を秘めている。
モデルはGCNを適用するために初期グラフを事前に推定する。
一般的なデータクラスタリングには,Deep Contrastive Graph Learning (DCGL)モデルが提案されている。
論文 参考訳(メタデータ) (2024-02-25T07:03:37Z) - One-step Bipartite Graph Cut: A Normalized Formulation and Its
Application to Scalable Subspace Clustering [56.81492360414741]
両部グラフの1ステップ正規化カットを、特に線形時間複雑性で実施する方法を示す。
本稿では、まず、正規化制約付き一段階二分グラフカット基準を特徴付けるとともに、そのトレース問題に対する等価性を理論的に証明する。
このカット基準を、適応アンカー学習、二部グラフ学習、一段階正規化二部グラフ分割を同時にモデル化するスケーラブルなサブスペースクラスタリングアプローチに拡張する。
論文 参考訳(メタデータ) (2023-05-12T11:27:20Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - Uncovering the Structural Fairness in Graph Contrastive Learning [87.65091052291544]
グラフコントラスト学習(GCL)は、ノード表現を学習するための有望な自己教師型アプローチとして登場した。
GCL法で得られた表現は,GCN法で学習した表現よりも既に公平であることを示す。
我々は、低次ノードと高次ノードに異なる戦略を適用し、GRAph contrastive learning for Degree bias (GRADE)と呼ばれるグラフ拡張手法を考案した。
論文 参考訳(メタデータ) (2022-10-06T15:58:25Z) - Geometric Graph Representation Learning via Maximizing Rate Reduction [73.6044873825311]
学習ノード表現は、コミュニティ検出やノード分類などのグラフ解析において、さまざまな下流タスクの恩恵を受ける。
教師なしの方法でノード表現を学習するための幾何学グラフ表現学習(G2R)を提案する。
G2R は異なるグループ内のノードを異なる部分空間にマッピングし、各部分空間はコンパクトで異なる部分空間が分散される。
論文 参考訳(メタデータ) (2022-02-13T07:46:24Z) - Residual Correlation in Graph Neural Network Regression [39.54530450932135]
我々は条件付き独立仮定が予測力を著しく制限していることを示します。
この問題を解釈可能かつ効率的なフレームワークで解決する。
我々のフレームワークは、競合するベースラインよりもかなり高い精度を実現している。
論文 参考訳(メタデータ) (2020-02-19T16:32:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。