論文の概要: Local Graph Clustering with Network Lasso
- arxiv url: http://arxiv.org/abs/2004.12199v3
- Date: Sat, 3 Oct 2020 14:13:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 21:27:18.984534
- Title: Local Graph Clustering with Network Lasso
- Title(参考訳): Network Lassoによるローカルグラフクラスタリング
- Authors: Alexander Jung and Yasmin SarcheshmehPour
- Abstract要約: 局所グラフクラスタリングのためのネットワークLasso法の統計的および計算的性質について検討する。
nLassoによって提供されるクラスタは、クラスタ境界とシードノードの間のネットワークフローを通じて、エレガントに特徴付けられる。
- 参考スコア(独自算出の注目度): 90.66817876491052
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the statistical and computational properties of a network Lasso
method for local graph clustering. The clusters delivered by nLasso can be
characterized elegantly via network flows between cluster boundary and seed
nodes. While spectral clustering methods are guided by a minimization of the
graph Laplacian quadratic form, nLasso minimizes the total variation of cluster
indicator signals. As demonstrated theoretically and numerically, nLasso
methods can handle very sparse clusters (chain-like) which are difficult for
spectral clustering. We also verify that a primal-dual method for nonsmooth
optimization allows to approximate nLasso solutions with optimal worst-case
convergence rate.
- Abstract(参考訳): 局所グラフクラスタリングのためのネットワークlasso法の統計と計算特性について検討した。
nLassoによって提供されるクラスタは、クラスタ境界とシードノードの間のネットワークフローを通じて、エレガントに特徴付けられる。
スペクトルクラスタリング法はグラフラプラシア二次形式の最小化によって導かれるが、nLassoはクラスタインジケータ信号の総変動を最小化する。
理論的にも数値的にも示されるように、nLasso法はスペクトルクラスタリングが困難である非常にスパースなクラスタ(チェーンのような)を扱うことができる。
また,ノンスムース最適化のための原始双対法によって,nlasso解を最適最短収束率で近似できることを検証した。
関連論文リスト
- Clustering Based on Density Propagation and Subcluster Merging [92.15924057172195]
本稿では,クラスタ数を自動的に決定し,データ空間とグラフ空間の両方に適用可能な密度に基づくノードクラスタリング手法を提案する。
二つのノード間の距離を計算する従来の密度クラスタリング法とは異なり,提案手法は伝播過程を通じて密度を決定する。
論文 参考訳(メタデータ) (2024-11-04T04:09:36Z) - MeanCut: A Greedy-Optimized Graph Clustering via Path-based Similarity
and Degree Descent Criterion [0.6906005491572401]
スペクトルクラスタリングは、優れたパフォーマンス、簡単な実装、強力な適応性のために人気があり、魅力的です。
我々は,MeanCutを目的関数として提案し,非破壊グラフ分割の次数降下順で厳密に最適化する。
本アルゴリズムの有効性は,実世界のベンチマークによる検証と顔認識の適用によって実証される。
論文 参考訳(メタデータ) (2023-12-07T06:19:39Z) - Optimal Clustering of Discrete Mixtures: Binomial, Poisson, Block
Models, and Multi-layer Networks [9.57586103097079]
多層ネットワークが存在する場合のクラスタリングネットワークの基本的限界について検討する。
混合多層ブロックモデル (MMSBM) では, 最適ネットワーククラスタリング誤差率の最小値が指数関数形式であることを示す。
本稿では,ノード分割とサンプル分割の両方を含むテンソルベースアルゴリズムを含む,新しい2段階ネットワーククラスタリング手法を提案する。
論文 参考訳(メタデータ) (2023-11-27T07:48:50Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Dink-Net: Neural Clustering on Large Graphs [59.10189693120368]
ディープグラフクラスタリング法 (Dink-Net) は, 拡張と縮小という概念を用いて提案される。
ノードを識別することにより、拡張によって劣化しても、表現は自己教師された方法で学習される。
クラスタリング分布は、提案したクラスタ拡張損失とクラスタ縮小損失を最小化することにより最適化される。
ランナアップと比較して、Dink-Net 9.62%は1100万ノードと16億エッジを持つogbn-papers100MデータセットでNMIの改善を実現している。
論文 参考訳(メタデータ) (2023-05-28T15:33:24Z) - Total Variation Graph Neural Networks [5.571369922847262]
最近提案されたグラフニューラルネットワーク(GNN)は、教師なしの最小カット目標を用いて訓練されている。
本稿では,最小カットの厳密な緩和を最適化し,クラスタ割り当てを計算するGNNモデルを提案する。
論文 参考訳(メタデータ) (2022-11-11T14:13:14Z) - Simplifying Clustering with Graph Neural Networks [5.571369922847262]
本稿では、適切なメッセージパッシング層を備えたグラフニューラルネットワークが、バランスの取れた項のみを最適化することにより、優れたクラスタ割り当てを実現できることを示す。
属性付きグラフデータセットの結果は、クラスタリング性能と時間の観点から提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-07-18T17:36:54Z) - flow-based clustering and spectral clustering: a comparison [0.688204255655161]
本研究では,本質的なネットワーク構造を持つデータに対する新しいグラフクラスタリング手法を提案する。
我々は、ユークリッド特徴ベクトルを構築するために、データ固有のネットワーク構造を利用する。
以上の結果から,クラスタリング手法が特定のグラフ構造に対処できることが示唆された。
論文 参考訳(メタデータ) (2022-06-20T21:49:52Z) - Self-supervised Contrastive Attributed Graph Clustering [110.52694943592974]
我々は,自己教師型コントラストグラフクラスタリング(SCAGC)という,新たな属性グラフクラスタリングネットワークを提案する。
SCAGCでは,不正確なクラスタリングラベルを活用することで,ノード表現学習のための自己教師付きコントラスト損失を設計する。
OOSノードでは、SCAGCはクラスタリングラベルを直接計算できる。
論文 参考訳(メタデータ) (2021-10-15T03:25:28Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。