論文の概要: IsoSEL: Isometric Structural Entropy Learning for Deep Graph Clustering in Hyperbolic Space
- arxiv url: http://arxiv.org/abs/2504.09970v1
- Date: Mon, 14 Apr 2025 08:21:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:50:28.468426
- Title: IsoSEL: Isometric Structural Entropy Learning for Deep Graph Clustering in Hyperbolic Space
- Title(参考訳): IsoSEL:双曲空間における深部グラフクラスタリングのための等尺構造エントロピー学習
- Authors: Li Sun, Zhenhao Huang, Yujie Wang, Hongbo Lv, Chunyang Liu, Hao Peng, Philip S. Yu,
- Abstract要約: グラフクラスタリングは、機械学習における長年のトピックである。
本稿では,K を含まない深層グラフクラスタリングという,現実の非均衡を考慮した問題について検討する。
深層グラフクラスタリングのための新しいIsoSELフレームワークを提案する。このフレームワークでは、双曲空間のローレンツモデルにおける分割木を学習するための双曲型ニューラルネットワークを設計する。
- 参考スコア(独自算出の注目度): 57.036143666293334
- License:
- Abstract: Graph clustering is a longstanding topic in machine learning. In recent years, deep learning methods have achieved encouraging results, but they still require predefined cluster numbers K, and typically struggle with imbalanced graphs, especially in identifying minority clusters. The limitations motivate us to study a challenging yet practical problem: deep graph clustering without K considering the imbalance in reality. We approach this problem from a fresh perspective of information theory (i.e., structural information). In the literature, structural information has rarely been touched in deep clustering, and the classic definition falls short in its discrete formulation, neglecting node attributes and exhibiting prohibitive complexity. In this paper, we first establish a new Differentiable Structural Information, generalizing the discrete formalism to continuous realm, so that the optimal partitioning tree, revealing the cluster structure, can be created by the gradient backpropagation. Theoretically, we demonstrate its capability in clustering without requiring K and identifying the minority clusters in imbalanced graphs, while reducing the time complexity to O(N) w.r.t. the number of nodes. Subsequently, we present a novel IsoSEL framework for deep graph clustering, where we design a hyperbolic neural network to learn the partitioning tree in the Lorentz model of hyperbolic space, and further conduct Lorentz Tree Contrastive Learning with isometric augmentation. As a result, the partitioning tree incorporates node attributes via mutual information maximization, while the cluster assignment is refined by the proposed tree contrastive learning. Extensive experiments on five benchmark datasets show the IsoSEL outperforms 14 recent baselines by an average of +1.3% in NMI.
- Abstract(参考訳): グラフクラスタリングは、機械学習における長年のトピックである。
近年、深層学習法は奨励的な結果を得たが、まだ事前に定義されたクラスタ数Kが必要であり、特にマイノリティクラスタの特定には不均衡なグラフに苦慮している。
この制限は、Kを含まないディープグラフクラスタリング(英語版)が現実の不均衡を考慮しないという、難しいが実用的な問題を研究する動機となっている。
我々は情報理論(構造情報)の新たな視点からこの問題にアプローチする。
文献では、構造情報はディープクラスタリングにおいてほとんど触れられず、古典的な定義はその離散的な定式化において不足し、ノード属性を無視し、禁制的な複雑さを示す。
本稿では、まず、離散形式を連続領域に一般化し、クラスタ構造を明らかにする最適分割木を勾配バックプロパゲーションにより作成できるように、新しい微分可能な構造情報を確立する。
理論的には、Kを必要とせずにクラスタリングの能力を示し、不均衡なグラフ内の少数クラスタを識別すると同時に、ノード数のO(N)w.r.t.に時間的複雑性を減少させる。
次に,グラフクラスタリングのための新しいIsoSELフレームワークを提案する。このフレームワークでは,双曲空間のローレンツモデルにおいて,分割木を学習するための双曲型ニューラルネットワークを設計し,さらに等尺性拡張によるローレンツ木コントラスト学習を行う。
その結果、分割木は相互情報の最大化によるノード属性を取り入れ、クラスタ割り当ては、提案したツリーのコントラスト学習によって洗練される。
5つのベンチマークデータセットの大規模な実験は、IsoSELが14の最近のベースラインを平均1.3%上回っていることを示している。
関連論文リスト
- LSEnet: Lorentz Structural Entropy Neural Network for Deep Graph Clustering [59.89626219328127]
グラフクラスタリングは機械学習の基本的な問題である。
近年、ディープラーニング手法は最先端の成果を達成しているが、事前に定義されたクラスタ番号なしでは動作できない。
本稿では,グラフ情報理論の新たな視点からこの問題に対処することを提案する。
論文 参考訳(メタデータ) (2024-05-20T05:46:41Z) - Learning Uniform Clusters on Hypersphere for Deep Graph-level Clustering [25.350054742471816]
我々はUDGC(Uniform Deep Graph Clustering)と呼ばれる新しいディープグラフレベルのクラスタリング手法を提案する。
UDGCはインスタンスを異なるクラスタに均等に割り当て、次にこれらのクラスタをユニットハイパースフィア上に分散させ、より均一なクラスタレベルの分散と、より小さなクラスタ崩壊につながる。
8つのよく知られたデータセットに関する実証研究は、UDGCが最先端のモデルを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2023-11-23T12:08:20Z) - Redundancy-Free Self-Supervised Relational Learning for Graph Clustering [13.176413653235311]
冗長フリーグラフクラスタリング(R$2$FGC)という,自己教師付き深層グラフクラスタリング手法を提案する。
オートエンコーダとグラフオートエンコーダに基づいて,グローバルビューとローカルビューの両方から属性レベルと構造レベルの関係情報を抽出する。
この実験は,R$2$FGCが最先端のベースラインよりも優れていることを示すために,広く使用されているベンチマークデータセット上で実施されている。
論文 参考訳(メタデータ) (2023-09-09T06:18:50Z) - Latent Random Steps as Relaxations of Max-Cut, Min-Cut, and More [30.919536115917726]
クラスタリングと単純化を統一する非負行列分解に基づく確率モデルを提案する。
ハードクラスタリングをソフトクラスタリングに緩和することにより、ハードクラスタリングの潜在的な問題をトラクタブルクラスタに緩和する。
論文 参考訳(メタデータ) (2023-08-12T02:47:57Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Dink-Net: Neural Clustering on Large Graphs [59.10189693120368]
ディープグラフクラスタリング法 (Dink-Net) は, 拡張と縮小という概念を用いて提案される。
ノードを識別することにより、拡張によって劣化しても、表現は自己教師された方法で学習される。
クラスタリング分布は、提案したクラスタ拡張損失とクラスタ縮小損失を最小化することにより最適化される。
ランナアップと比較して、Dink-Net 9.62%は1100万ノードと16億エッジを持つogbn-papers100MデータセットでNMIの改善を実現している。
論文 参考訳(メタデータ) (2023-05-28T15:33:24Z) - Deep Temporal Graph Clustering [77.02070768950145]
深部時間グラフクラスタリング(GC)のための汎用フレームワークを提案する。
GCは、時間グラフの相互作用シーケンスに基づくバッチ処理パターンに適合するディープクラスタリング技術を導入している。
我々のフレームワークは、既存の時間グラフ学習手法の性能を効果的に向上させることができる。
論文 参考訳(メタデータ) (2023-05-18T06:17:50Z) - One-step Bipartite Graph Cut: A Normalized Formulation and Its
Application to Scalable Subspace Clustering [56.81492360414741]
両部グラフの1ステップ正規化カットを、特に線形時間複雑性で実施する方法を示す。
本稿では、まず、正規化制約付き一段階二分グラフカット基準を特徴付けるとともに、そのトレース問題に対する等価性を理論的に証明する。
このカット基準を、適応アンカー学習、二部グラフ学習、一段階正規化二部グラフ分割を同時にモデル化するスケーラブルなサブスペースクラスタリングアプローチに拡張する。
論文 参考訳(メタデータ) (2023-05-12T11:27:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。