論文の概要: Scalable Deep Graph Clustering with Random-walk based Self-supervised
Learning
- arxiv url: http://arxiv.org/abs/2112.15530v1
- Date: Fri, 31 Dec 2021 16:12:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-03 15:45:54.293126
- Title: Scalable Deep Graph Clustering with Random-walk based Self-supervised
Learning
- Title(参考訳): ランダムウォークに基づく自己教師型学習によるスケーラブルディープグラフクラスタリング
- Authors: Xiang Li (1), Dong Li (2), Ruoming Jin (2), Gagan Agrawal (3), Rajiv
Ramnath (4) ((1) Ohio State University, (2) Kent State University, (3)
Augusta University)
- Abstract要約: スケーラブルなディープクラスタリングアルゴリズムであるRwSLは、100万以上のノードを持つグラフを超えてスケールし続けることができることを示す。
また、RwSLが1つのGPUのみを使用して、1.8億のエッジを持つグラフ上でノードクラスタリングを実行する方法を実証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Web-based interactions can be frequently represented by an attributed graph,
and node clustering in such graphs has received much attention lately. Multiple
efforts have successfully applied Graph Convolutional Networks (GCN), though
with some limits on accuracy as GCNs have been shown to suffer from
over-smoothing issues. Though other methods (particularly those based on
Laplacian Smoothing) have reported better accuracy, a fundamental limitation of
all the work is a lack of scalability. This paper addresses this open problem
by relating the Laplacian smoothing to the Generalized PageRank and applying a
random-walk based algorithm as a scalable graph filter. This forms the basis
for our scalable deep clustering algorithm, RwSL, where through a
self-supervised mini-batch training mechanism, we simultaneously optimize a
deep neural network for sample-cluster assignment distribution and an
autoencoder for a clustering-oriented embedding. Using 6 real-world datasets
and 6 clustering metrics, we show that RwSL achieved improved results over
several recent baselines. Most notably, we show that RwSL, unlike all other
deep clustering frameworks, can continue to scale beyond graphs with more than
one million nodes, i.e., handle web-scale. We also demonstrate how RwSL could
perform node clustering on a graph with 1.8 billion edges using only a single
GPU.
- Abstract(参考訳): Webベースのインタラクションは、しばしば属性付きグラフによって表現され、そのようなグラフのノードクラスタリングは最近、多くの注目を集めています。
グラフ畳み込みネットワーク(GCN: Graph Convolutional Networks)の適用は成功したが、GCNが過度にスムースな問題に悩まされていることが示されているため、精度にいくつかの制限がある。
他の方法(特にラプラシアン・スムーシングに基づくもの)では精度が向上しているが、全ての作業の基本的な制限はスケーラビリティの欠如である。
本稿では,ラプラシアン平滑化を一般ページランクに関連付け,ランダムウォークに基づくアルゴリズムをスケーラブルなグラフフィルタとして適用することで,この問題に対処する。
これは、我々のスケーラブルなディープクラスタリングアルゴリズムRwSLの基礎となり、セルフ教師付きミニバッチトレーニング機構により、サンプルクラスタ割り当て分布のためのディープニューラルネットワークとクラスタリング指向の埋め込みのためのオートエンコーダを同時に最適化する。
実世界の6つのデータセットと6つのクラスタリングメトリクスを用いて、RwSLが最近のベースラインよりも改善された結果を得たことを示す。
最も注目すべきは、rwslが他のすべてのディープクラスタリングフレームワークと異なり、100万以上のノード、すなわちwebスケールを扱うグラフを越えてスケールし続けることができることです。
また、単一のgpuだけで18億のエッジを持つグラフ上で、rwslがノードクラスタリングを実行する方法も示しています。
関連論文リスト
- FedGT: Federated Node Classification with Scalable Graph Transformer [27.50698154862779]
本稿では,スケーラブルな textbfFederated textbfGraph textbfTransformer (textbfFedGT) を提案する。
FedGTは、最適なトランスポートで整列したグローバルノードに基づいて、クライアントの類似性を計算する。
論文 参考訳(メタデータ) (2024-01-26T21:02:36Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Dink-Net: Neural Clustering on Large Graphs [59.10189693120368]
ディープグラフクラスタリング法 (Dink-Net) は, 拡張と縮小という概念を用いて提案される。
ノードを識別することにより、拡張によって劣化しても、表現は自己教師された方法で学習される。
クラスタリング分布は、提案したクラスタ拡張損失とクラスタ縮小損失を最小化することにより最適化される。
ランナアップと比較して、Dink-Net 9.62%は1100万ノードと16億エッジを持つogbn-papers100MデータセットでNMIの改善を実現している。
論文 参考訳(メタデータ) (2023-05-28T15:33:24Z) - EGRC-Net: Embedding-induced Graph Refinement Clustering Network [66.44293190793294]
埋め込みによるグラフリファインメントクラスタリングネットワーク (EGRC-Net) という新しいグラフクラスタリングネットワークを提案する。
EGRC-Netは学習した埋め込みを利用して初期グラフを適応的に洗練し、クラスタリング性能を向上させる。
提案手法はいくつかの最先端手法より一貫して優れている。
論文 参考訳(メタデータ) (2022-11-19T09:08:43Z) - DOTIN: Dropping Task-Irrelevant Nodes for GNNs [119.17997089267124]
最近のグラフ学習アプローチでは、学習のためのグラフのサイズを減らすためのプール戦略が導入されている。
我々はDOTIN(underlineDrunderlineopping underlineTask-underlineIrrelevant underlineNodes)と呼ばれる新しいアプローチを設計し、グラフのサイズを減らす。
本手法は,グラフ分類やグラフ編集距離を含むグラフレベルのタスクにおいて,GATを約50%高速化する。
論文 参考訳(メタデータ) (2022-04-28T12:00:39Z) - SCGC : Self-Supervised Contrastive Graph Clustering [1.1470070927586016]
グラフクラスタリングはネットワーク内のグループやコミュニティを検出する。
オートエンコーダのような深層学習手法は、豊富な構造情報を組み込むことはできない。
自己監督型コントラストグラフクラスタリング(SCGC)を提案する。
論文 参考訳(メタデータ) (2022-04-27T01:38:46Z) - ClusterGNN: Cluster-based Coarse-to-Fine Graph Neural Network for
Efficient Feature Matching [15.620335576962475]
ClusterGNNは、特徴マッチングタスクを学習するためのクラスタで動作する、注目のGNNアーキテクチャである。
提案手法では,59.7%のランタイム削減,58.4%のメモリ消費削減を実現している。
論文 参考訳(メタデータ) (2022-04-25T14:43:15Z) - Learning Hierarchical Graph Neural Networks for Image Clustering [81.5841862489509]
本稿では,画像の集合を未知の個数にクラスタリングする方法を学ぶ階層型グラフニューラルネットワーク(GNN)モデルを提案する。
我々の階層的なGNNは、階層の各レベルで予測される連結コンポーネントをマージして、次のレベルで新しいグラフを形成するために、新しいアプローチを用いています。
論文 参考訳(メタデータ) (2021-07-03T01:28:42Z) - Scaling Graph Neural Networks with Approximate PageRank [64.92311737049054]
GNNにおける情報拡散の効率的な近似を利用したPPRGoモデルを提案する。
高速であることに加えて、PPRGoは本質的にスケーラブルであり、業界設定で見られるような大規模なデータセットに対して、自明に並列化することができる。
このグラフのすべてのノードに対するPPRGoのトレーニングとラベルの予測には1台のマシンで2分未満で、同じグラフ上の他のベースラインをはるかに上回ります。
論文 参考訳(メタデータ) (2020-07-03T09:30:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。