論文の概要: Git: Clustering Based on Graph of Intensity Topology
- arxiv url: http://arxiv.org/abs/2110.01274v1
- Date: Mon, 4 Oct 2021 09:29:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-05 15:52:11.007521
- Title: Git: Clustering Based on Graph of Intensity Topology
- Title(参考訳): Git: インテンシティトポロジのグラフに基づくクラスタリング
- Authors: Zhangyang Gao, Haitao Lin, Cheng Tan, Lirong Wu, Stan. Z Li
- Abstract要約: 我々は、新しいクラスタリングアルゴリズムGIT(textbfIntensity textbfTopologyのtextbfGraphに基づくクラスタリング)を提案する。
高速な局所クラスタ検出、堅牢なトポグラフの構築、エッジカットにより、GITは魅力的なARISE性能を示す。
- 参考スコア(独自算出の注目度): 25.679620842010422
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: \textbf{A}ccuracy, \textbf{R}obustness to noises and scales,
\textbf{I}nterpretability, \textbf{S}peed, and \textbf{E}asy to use (ARISE) are
crucial requirements of a good clustering algorithm. However, achieving these
goals simultaneously is challenging, and most advanced approaches only focus on
parts of them. Towards an overall consideration of these aspects, we propose a
novel clustering algorithm, namely GIT (Clustering Based on \textbf{G}raph of
\textbf{I}ntensity \textbf{T}opology). GIT considers both local and global data
structures: firstly forming local clusters based on intensity peaks of samples,
and then estimating the global topological graph (topo-graph) between these
local clusters. We use the Wasserstein Distance between the predicted and prior
class proportions to automatically cut noisy edges in the topo-graph and merge
connected local clusters as final clusters. Then, we compare GIT with seven
competing algorithms on five synthetic datasets and nine real-world datasets.
With fast local cluster detection, robust topo-graph construction and accurate
edge-cutting, GIT shows attractive ARISE performance and significantly exceeds
other non-convex clustering methods. For example, GIT outperforms its
counterparts about $10\%$ (F1-score) on MNIST and FashionMNIST. Code is
available at \color{red}{https://github.com/gaozhangyang/GIT}.
- Abstract(参考訳): ノイズとスケールに対する \textbf{R}obustness, \textbf{I}nterpretability, \textbf{S}peed, \textbf{E}asy to use (ARISE) は優れたクラスタリングアルゴリズムの重要な要件である。
しかし、これらの目標を同時に達成することは困難であり、ほとんどの先進的なアプローチはそれらの部分のみに焦点を当てている。
これらの側面を総合的に検討するために,git( \textbf{g}raph of \textbf{i}ntensity \textbf{t}opology)と呼ばれる新しいクラスタリングアルゴリズムを提案する。
GITは、まずサンプルの強度ピークに基づいて局所クラスタを形成し、次にこれらの局所クラスタ間のグローバルトポロジカルグラフ(トポグラフ)を推定する。
予測クラスと先行クラス間のワッサースタイン距離を用いて,トポグラフのノイズエッジを自動的に切断し,連結した局所クラスタを最終クラスタとしてマージする。
そして、GITを5つの合成データセットと9つの実世界のデータセットで競合する7つのアルゴリズムと比較する。
高速な局所クラスタ検出、堅牢なトポグラフの構築、エッジカットにより、GITは魅力的なARISE性能を示し、他の非凸クラスタリング手法を大幅に上回る。
例えば、GIT は MNIST と FashionMNIST で 10\%$ (F1-score) を上回ります。
コードはcolor{red}{https://github.com/gaozhangyang/git}で入手できる。
関連論文リスト
- Learning Uniform Clusters on Hypersphere for Deep Graph-level Clustering [25.350054742471816]
我々はUDGC(Uniform Deep Graph Clustering)と呼ばれる新しいディープグラフレベルのクラスタリング手法を提案する。
UDGCはインスタンスを異なるクラスタに均等に割り当て、次にこれらのクラスタをユニットハイパースフィア上に分散させ、より均一なクラスタレベルの分散と、より小さなクラスタ崩壊につながる。
8つのよく知られたデータセットに関する実証研究は、UDGCが最先端のモデルを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2023-11-23T12:08:20Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Dink-Net: Neural Clustering on Large Graphs [59.10189693120368]
ディープグラフクラスタリング法 (Dink-Net) は, 拡張と縮小という概念を用いて提案される。
ノードを識別することにより、拡張によって劣化しても、表現は自己教師された方法で学習される。
クラスタリング分布は、提案したクラスタ拡張損失とクラスタ縮小損失を最小化することにより最適化される。
ランナアップと比較して、Dink-Net 9.62%は1100万ノードと16億エッジを持つogbn-papers100MデータセットでNMIの改善を実現している。
論文 参考訳(メタデータ) (2023-05-28T15:33:24Z) - GLCC: A General Framework for Graph-level Clustering [5.069852282550117]
本稿では,グラフレベルのクラスタリングの問題について検討する。
GLCC(Graph-Level Contrastive Clustering)というグラフレベルの一般的なクラスタリングフレームワークを提案する。
様々なよく知られたデータセットに対する実験は、競合するベースラインよりも提案したGLCCの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-10-21T11:08:10Z) - Graph Representation Learning via Contrasting Cluster Assignments [57.87743170674533]
GRCCAと呼ばれるクラスタ割り当てを対比して、教師なしグラフ表現モデルを提案する。
クラスタリングアルゴリズムとコントラスト学習を組み合わせることで、局所的およびグローバルな情報を合成的にうまく活用する動機付けがある。
GRCCAは、ほとんどのタスクにおいて強力な競争力を持っている。
論文 参考訳(メタデータ) (2021-12-15T07:28:58Z) - Self-supervised Contrastive Attributed Graph Clustering [110.52694943592974]
我々は,自己教師型コントラストグラフクラスタリング(SCAGC)という,新たな属性グラフクラスタリングネットワークを提案する。
SCAGCでは,不正確なクラスタリングラベルを活用することで,ノード表現学習のための自己教師付きコントラスト損失を設計する。
OOSノードでは、SCAGCはクラスタリングラベルを直接計算できる。
論文 参考訳(メタデータ) (2021-10-15T03:25:28Z) - Structure-Aware Face Clustering on a Large-Scale Graph with
$\bf{10^{7}}$ Nodes [76.6700928596238]
大規模トレーニングデータのパワーを探索する構造保存サブグラフサンプリング戦略を提案する。
STAR-FCは310秒以内に部分的なMS1Mで91.97Fスコアを得る。
論文 参考訳(メタデータ) (2021-03-24T14:34:26Z) - Clustering Based on Graph of Density Topology [41.57592288113871]
密度トポロジーグラフ (GDT) に基づく新しいクラスタリングアルゴリズムを提案する。
GDTは一般的なデータセットのほとんど全てでSOTAのパフォーマンスを実現し、O(nlogn)の低時間複雑さを持つ。
論文 参考訳(メタデータ) (2020-09-24T11:40:24Z) - Structured Graph Learning for Clustering and Semi-supervised
Classification [74.35376212789132]
データの局所構造とグローバル構造の両方を保存するためのグラフ学習フレームワークを提案する。
本手法は, サンプルの自己表現性を利用して, 局所構造を尊重するために, 大域的構造と適応的隣接アプローチを捉える。
我々のモデルは、ある条件下でのカーネルk平均法とk平均法の組合せと等価である。
論文 参考訳(メタデータ) (2020-08-31T08:41:20Z) - Incorporating User's Preference into Attributed Graph Clustering [14.082520165369885]
局所クラスタに対して,グラフ一様性(GU)と属性一様性(AU)の2つの品質尺度を提案する。
LOCLUによって検出された局所クラスタは、関心領域に集中し、グラフ内の効率的な情報フローを提供し、指定された属性のサブ空間に一様データ分布を示す。
論文 参考訳(メタデータ) (2020-03-24T19:07:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。