論文の概要: Total Variation Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2211.06218v2
- Date: Thu, 27 Apr 2023 20:29:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-01 17:29:26.662024
- Title: Total Variation Graph Neural Networks
- Title(参考訳): 全変分グラフニューラルネットワーク
- Authors: Jonas Berg Hansen and Filippo Maria Bianchi
- Abstract要約: 最近提案されたグラフニューラルネットワーク(GNN)は、教師なしの最小カット目標を用いて訓練されている。
本稿では,最小カットの厳密な緩和を最適化し,クラスタ割り当てを計算するGNNモデルを提案する。
- 参考スコア(独自算出の注目度): 5.571369922847262
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently proposed Graph Neural Networks (GNNs) for vertex clustering are
trained with an unsupervised minimum cut objective, approximated by a Spectral
Clustering (SC) relaxation. However, the SC relaxation is loose and, while it
offers a closed-form solution, it also yields overly smooth cluster assignments
that poorly separate the vertices. In this paper, we propose a GNN model that
computes cluster assignments by optimizing a tighter relaxation of the minimum
cut based on graph total variation (GTV). The cluster assignments can be used
directly to perform vertex clustering or to implement graph pooling in a graph
classification framework. Our model consists of two core components: i) a
message-passing layer that minimizes the $\ell_1$ distance in the features of
adjacent vertices, which is key to achieving sharp transitions between
clusters; ii) an unsupervised loss function that minimizes the GTV of the
cluster assignments while ensuring balanced partitions. Experimental results
show that our model outperforms other GNNs for vertex clustering and graph
classification.
- Abstract(参考訳): 最近提案された頂点クラスタリングのためのグラフニューラルネットワーク(GNN)は、スペクトルクラスタリング(SC)緩和によって近似された教師なし最小カット目標を用いて訓練されている。
しかし、sc緩和は緩やかであり、閉形式の解を提供する一方で、頂点を疎分離する過度に滑らかなクラスタ割り当てをもたらす。
本稿では,グラフ全体の変動(gtv)に基づいて,最小カットのより厳密な緩和を最適化し,クラスタ割り当てを計算するgnnモデルを提案する。
クラスタ割り当ては直接、頂点クラスタリングやグラフ分類フレームワークでのグラフプーリングの実装に使用することができる。
私たちのモデルは2つのコアコンポーネントで構成されています。
一 隣接する頂点の特徴において$\ell_1$距離を最小化するメッセージ通過層であって、クラスタ間の鋭い遷移を達成するための鍵であるもの
二 バランスの取れた分割を確保しつつ、クラスタ割り当てのGTVを最小限に抑える無監督の損失関数
実験の結果,本モデルは他のgnnよりも頂点クラスタリングやグラフ分類に優れていることがわかった。
関連論文リスト
- Cluster-based Graph Collaborative Filtering [55.929052969825825]
グラフ畳み込みネットワーク(GCN)は、レコメンデーションシステムのためのユーザおよびアイテム表現の学習に成功している。
既存のGCNベースのほとんどのメソッドは、高階グラフ畳み込みを実行しながら、ユーザの複数の関心事を見落としている。
クラスタベースグラフ協調フィルタリング(ClusterGCF)と呼ばれる新しいGCNベースのレコメンデーションモデルを提案する。
論文 参考訳(メタデータ) (2024-04-16T07:05:16Z) - Learning Uniform Clusters on Hypersphere for Deep Graph-level Clustering [25.350054742471816]
我々はUDGC(Uniform Deep Graph Clustering)と呼ばれる新しいディープグラフレベルのクラスタリング手法を提案する。
UDGCはインスタンスを異なるクラスタに均等に割り当て、次にこれらのクラスタをユニットハイパースフィア上に分散させ、より均一なクラスタレベルの分散と、より小さなクラスタ崩壊につながる。
8つのよく知られたデータセットに関する実証研究は、UDGCが最先端のモデルを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2023-11-23T12:08:20Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Dink-Net: Neural Clustering on Large Graphs [59.10189693120368]
ディープグラフクラスタリング法 (Dink-Net) は, 拡張と縮小という概念を用いて提案される。
ノードを識別することにより、拡張によって劣化しても、表現は自己教師された方法で学習される。
クラスタリング分布は、提案したクラスタ拡張損失とクラスタ縮小損失を最小化することにより最適化される。
ランナアップと比較して、Dink-Net 9.62%は1100万ノードと16億エッジを持つogbn-papers100MデータセットでNMIの改善を実現している。
論文 参考訳(メタデータ) (2023-05-28T15:33:24Z) - GLCC: A General Framework for Graph-level Clustering [5.069852282550117]
本稿では,グラフレベルのクラスタリングの問題について検討する。
GLCC(Graph-Level Contrastive Clustering)というグラフレベルの一般的なクラスタリングフレームワークを提案する。
様々なよく知られたデータセットに対する実験は、競合するベースラインよりも提案したGLCCの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-10-21T11:08:10Z) - Self-supervised Contrastive Attributed Graph Clustering [110.52694943592974]
我々は,自己教師型コントラストグラフクラスタリング(SCAGC)という,新たな属性グラフクラスタリングネットワークを提案する。
SCAGCでは,不正確なクラスタリングラベルを活用することで,ノード表現学習のための自己教師付きコントラスト損失を設計する。
OOSノードでは、SCAGCはクラスタリングラベルを直接計算できる。
論文 参考訳(メタデータ) (2021-10-15T03:25:28Z) - Learning Hierarchical Graph Neural Networks for Image Clustering [81.5841862489509]
本稿では,画像の集合を未知の個数にクラスタリングする方法を学ぶ階層型グラフニューラルネットワーク(GNN)モデルを提案する。
我々の階層的なGNNは、階層の各レベルで予測される連結コンポーネントをマージして、次のレベルで新しいグラフを形成するために、新しいアプローチを用いています。
論文 参考訳(メタデータ) (2021-07-03T01:28:42Z) - Seeing All From a Few: Nodes Selection Using Graph Pooling for Graph
Clustering [37.68977275752782]
ノイズの多いエッジとグラフのノードは、クラスタリング結果を悪化させる可能性がある。
ノイズの多いノードやエッジに対するグラフクラスタリングの堅牢性を改善するために,新しいデュアルグラフ埋め込みネットワーク(DGEN)を提案する。
3つのベンチマークグラフデータセットの実験は、いくつかの最先端アルゴリズムと比較して優位性を示す。
論文 参考訳(メタデータ) (2021-04-30T06:51:51Z) - CAGNN: Cluster-Aware Graph Neural Networks for Unsupervised Graph
Representation Learning [19.432449825536423]
教師なしグラフ表現学習は、教師なしの低次元ノード埋め込みを学習することを目的としている。
本稿では、自己教師付き手法を用いた教師なしグラフ表現学習のための新しいクラスタ対応グラフニューラルネットワーク(CAGNN)モデルを提案する。
論文 参考訳(メタデータ) (2020-09-03T13:57:18Z) - Local Graph Clustering with Network Lasso [90.66817876491052]
局所グラフクラスタリングのためのネットワークLasso法の統計的および計算的性質について検討する。
nLassoによって提供されるクラスタは、クラスタ境界とシードノードの間のネットワークフローを通じて、エレガントに特徴付けられる。
論文 参考訳(メタデータ) (2020-04-25T17:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。