論文の概要: Clustering with Total Variation Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2211.06218v1
- Date: Fri, 11 Nov 2022 14:13:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 16:50:00.773664
- Title: Clustering with Total Variation Graph Neural Networks
- Title(参考訳): 全変動グラフニューラルネットワークによるクラスタリング
- Authors: Jonas Berg Hansen and Filippo Maria Bianchi
- Abstract要約: グラフニューラルネットワーク(GNN)は、属性グラフを処理するために設計されたディープラーニングモデルである。
グラフ総変動(GTV)に基づく最小カットの厳密な緩和を最適化するモデルを提案する。
提案した損失を最適化することにより,クラスタリングを行うための自己学習が可能である。
- 参考スコア(独自算出の注目度): 5.571369922847262
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) are deep learning models designed to process
attributed graphs. GNNs can compute cluster assignments accounting both for the
vertex features and for the graph topology. Existing GNNs for clustering are
trained by optimizing an unsupervised minimum cut objective, which is
approximated by a Spectral Clustering (SC) relaxation. SC offers a closed-form
solution that, however, is not particularly useful for a GNN trained with
gradient descent. Additionally, the SC relaxation is loose and yields overly
smooth cluster assignments, which do not separate well the samples. We propose
a GNN model that optimizes a tighter relaxation of the minimum cut based on
graph total variation (GTV). Our model has two core components: i) a
message-passing layer that minimizes the $\ell_1$ distance in the features of
adjacent vertices, which is key to achieving sharp cluster transitions; ii) a
loss function that minimizes the GTV in the cluster assignments while ensuring
balanced partitions. By optimizing the proposed loss, our model can be
self-trained to perform clustering. In addition, our clustering procedure can
be used to implement graph pooling in deep GNN architectures for graph
classification. Experiments show that our model outperforms other GNN-based
approaches for clustering and graph pooling.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、属性グラフを処理するために設計されたディープラーニングモデルである。
GNNは頂点機能とグラフトポロジの両方を考慮したクラスタ割り当てを計算できる。
クラスタリングのための既存のGNNは、スペクトルクラスタリング(SC)緩和によって近似される教師なしの最小カット目標を最適化することによって訓練される。
SCはクローズドフォームのソリューションを提供するが、勾配降下の訓練を受けたGNNには特に役に立たない。
さらに、SC緩和は緩く、非常に滑らかなクラスタ割り当てをもたらし、サンプルを十分に分離しない。
本稿では,グラフ総変動(GTV)に基づいて,最小カットの厳密な緩和を最適化するGNNモデルを提案する。
私たちのモデルには2つのコアコンポーネントがあります。
一 隣接する頂点の特徴において$\ell_1$距離を最小化するメッセージ通過層であって、鋭いクラスタ遷移を達成するための鍵であるもの
二 クラスタ割り当てにおいて、バランスの取れたパーティションを確保しつつ、GTVを最小化する損失関数。
提案する損失を最適化することで,クラスタリングを行うための自己学習が可能となる。
さらに,クラスタリング手法を用いて,グラフ分類のための深層GNNアーキテクチャにおけるグラフプーリングを実現する。
実験により,我々のモデルはクラスタリングやグラフプーリングにおいて,他のGNNベースのアプローチよりも優れていることが示された。
関連論文リスト
- Cluster-based Graph Collaborative Filtering [55.929052969825825]
グラフ畳み込みネットワーク(GCN)は、レコメンデーションシステムのためのユーザおよびアイテム表現の学習に成功している。
既存のGCNベースのほとんどのメソッドは、高階グラフ畳み込みを実行しながら、ユーザの複数の関心事を見落としている。
クラスタベースグラフ協調フィルタリング(ClusterGCF)と呼ばれる新しいGCNベースのレコメンデーションモデルを提案する。
論文 参考訳(メタデータ) (2024-04-16T07:05:16Z) - Learning Uniform Clusters on Hypersphere for Deep Graph-level Clustering [25.350054742471816]
我々はUDGC(Uniform Deep Graph Clustering)と呼ばれる新しいディープグラフレベルのクラスタリング手法を提案する。
UDGCはインスタンスを異なるクラスタに均等に割り当て、次にこれらのクラスタをユニットハイパースフィア上に分散させ、より均一なクラスタレベルの分散と、より小さなクラスタ崩壊につながる。
8つのよく知られたデータセットに関する実証研究は、UDGCが最先端のモデルを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2023-11-23T12:08:20Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Dink-Net: Neural Clustering on Large Graphs [59.10189693120368]
ディープグラフクラスタリング法 (Dink-Net) は, 拡張と縮小という概念を用いて提案される。
ノードを識別することにより、拡張によって劣化しても、表現は自己教師された方法で学習される。
クラスタリング分布は、提案したクラスタ拡張損失とクラスタ縮小損失を最小化することにより最適化される。
ランナアップと比較して、Dink-Net 9.62%は1100万ノードと16億エッジを持つogbn-papers100MデータセットでNMIの改善を実現している。
論文 参考訳(メタデータ) (2023-05-28T15:33:24Z) - GLCC: A General Framework for Graph-level Clustering [5.069852282550117]
本稿では,グラフレベルのクラスタリングの問題について検討する。
GLCC(Graph-Level Contrastive Clustering)というグラフレベルの一般的なクラスタリングフレームワークを提案する。
様々なよく知られたデータセットに対する実験は、競合するベースラインよりも提案したGLCCの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-10-21T11:08:10Z) - Self-supervised Contrastive Attributed Graph Clustering [110.52694943592974]
我々は,自己教師型コントラストグラフクラスタリング(SCAGC)という,新たな属性グラフクラスタリングネットワークを提案する。
SCAGCでは,不正確なクラスタリングラベルを活用することで,ノード表現学習のための自己教師付きコントラスト損失を設計する。
OOSノードでは、SCAGCはクラスタリングラベルを直接計算できる。
論文 参考訳(メタデータ) (2021-10-15T03:25:28Z) - Learning Hierarchical Graph Neural Networks for Image Clustering [81.5841862489509]
本稿では,画像の集合を未知の個数にクラスタリングする方法を学ぶ階層型グラフニューラルネットワーク(GNN)モデルを提案する。
我々の階層的なGNNは、階層の各レベルで予測される連結コンポーネントをマージして、次のレベルで新しいグラフを形成するために、新しいアプローチを用いています。
論文 参考訳(メタデータ) (2021-07-03T01:28:42Z) - Seeing All From a Few: Nodes Selection Using Graph Pooling for Graph
Clustering [37.68977275752782]
ノイズの多いエッジとグラフのノードは、クラスタリング結果を悪化させる可能性がある。
ノイズの多いノードやエッジに対するグラフクラスタリングの堅牢性を改善するために,新しいデュアルグラフ埋め込みネットワーク(DGEN)を提案する。
3つのベンチマークグラフデータセットの実験は、いくつかの最先端アルゴリズムと比較して優位性を示す。
論文 参考訳(メタデータ) (2021-04-30T06:51:51Z) - CAGNN: Cluster-Aware Graph Neural Networks for Unsupervised Graph
Representation Learning [19.432449825536423]
教師なしグラフ表現学習は、教師なしの低次元ノード埋め込みを学習することを目的としている。
本稿では、自己教師付き手法を用いた教師なしグラフ表現学習のための新しいクラスタ対応グラフニューラルネットワーク(CAGNN)モデルを提案する。
論文 参考訳(メタデータ) (2020-09-03T13:57:18Z) - Local Graph Clustering with Network Lasso [90.66817876491052]
局所グラフクラスタリングのためのネットワークLasso法の統計的および計算的性質について検討する。
nLassoによって提供されるクラスタは、クラスタ境界とシードノードの間のネットワークフローを通じて、エレガントに特徴付けられる。
論文 参考訳(メタデータ) (2020-04-25T17:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。