論文の概要: Tree-Guided $L_1$-Convex Clustering
- arxiv url: http://arxiv.org/abs/2503.24012v1
- Date: Mon, 31 Mar 2025 12:39:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 14:33:07.362240
- Title: Tree-Guided $L_1$-Convex Clustering
- Title(参考訳): Tree-Guided $L_1$-Convex Clustering
- Authors: Bingyuan Zhang, Yoshikazu Terada,
- Abstract要約: 本研究では,新しい凸クラスタリングアルゴリズムであるTree-Guided- Clusteringを開発した。
最適化プロセスの高速化に重みのツリーを利用する,効率的なクラスタ融合アルゴリズムを開発した。
注目すべきは、私たちのTGCCアルゴリズムは、ラップトップ標準で$mathbbR2秒で完全なデングラムを構築することができることです。
- 参考スコア(独自算出の注目度): 1.0589208420411012
- License:
- Abstract: Convex clustering is a modern clustering framework that guarantees globally optimal solutions and performs comparably to other advanced clustering methods. However, obtaining a complete dendrogram (clusterpath) for large-scale datasets remains computationally challenging due to the extensive costs associated with iterative optimization approaches. To address this limitation, we develop a novel convex clustering algorithm called Tree-Guided $L_1$-Convex Clustering (TGCC). We first focus on the fact that the loss function of $L_1$-convex clustering with tree-structured weights can be efficiently optimized using a dynamic programming approach. We then develop an efficient cluster fusion algorithm that utilizes the tree structure of the weights to accelerate the optimization process and eliminate the issue of cluster splits commonly observed in convex clustering. By combining the dynamic programming approach with the cluster fusion algorithm, the TGCC algorithm achieves superior computational efficiency without sacrificing clustering performance. Remarkably, our TGCC algorithm can construct a complete clusterpath for $10^6$ points in $\mathbb{R}^2$ within 15 seconds on a standard laptop without the need for parallel or distributed computing frameworks. Moreover, we extend the TGCC algorithm to develop biclustering and sparse convex clustering algorithms.
- Abstract(参考訳): Convexクラスタリングは、グローバルに最適なソリューションを保証し、他の高度なクラスタリングメソッドと互換性のある、現代的なクラスタリングフレームワークである。
しかしながら、大規模データセットに対する完全なデンドログラム(クラスタパス)の取得は、反復最適化アプローチに関連する膨大なコストのため、計算的に困難である。
この制限に対処するため,Tree-Guided $L_1$-Convex Clustering (TGCC)と呼ばれる新しい凸クラスタリングアルゴリズムを開発した。
まず、木構造重み付き$L_1$-convexクラスタリングの損失関数を動的プログラミング手法を用いて効率的に最適化できるという事実に注目した。
次に、重みのツリー構造を利用して最適化プロセスを高速化し、凸クラスタリングでよく見られるクラスタ分割の問題を解消する効率的なクラスタ融合アルゴリズムを開発する。
動的プログラミング手法とクラスタ融合アルゴリズムを組み合わせることで,クラスタリング性能を犠牲にすることなく,より優れた計算効率を実現する。
注目すべきは、私たちのTGCCアルゴリズムは、並列または分散コンピューティングフレームワークを必要とせずに、標準的なラップトップ上で、$\mathbb{R}^2$で10^6$の完全なクラスタパスを15秒以内に構築できることです。
さらに,両クラスタリングおよびスパース凸クラスタリングアルゴリズムを開発するために,TGCCアルゴリズムを拡張した。
関連論文リスト
- A Greedy Strategy for Graph Cut [95.2841574410968]
GGCと呼ばれるグラフカットの問題を解決するための欲求戦略を提案する。
これは、各データサンプルがクラスタと見なされる状態から始まり、2つのクラスタを動的にマージする。
GGCはサンプル数に関してほぼ線形な計算複雑性を持つ。
論文 参考訳(メタデータ) (2024-12-28T05:49:42Z) - GBCT: An Efficient and Adaptive Granular-Ball Clustering Algorithm for Complex Data [49.56145012222276]
粒状球クラスタリング(GBCT)と呼ばれる新しいクラスタリングアルゴリズムを提案する。
GBCTは、従来の点関係ではなく、グラニュラーボールの関係に従ってクラスタを形成する。
グラニュラーボールは様々な複雑なデータに適合するので、GBCTは従来のクラスタリング法よりも非球面データセットにおいてはるかに優れている。
論文 参考訳(メタデータ) (2024-10-17T07:32:05Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Revisiting Instance-Optimal Cluster Recovery in the Labeled Stochastic Block Model [69.15976031704687]
IAC (Instance-Adaptive Clustering, インスタンス適応クラスタリング) を提案する。
IACは$ MathcalO(n, textpolylog(n) $の計算複雑性を維持しており、大規模問題に対してスケーラブルで実用的なものである。
論文 参考訳(メタデータ) (2023-06-18T08:46:06Z) - Hybrid Fuzzy-Crisp Clustering Algorithm: Theory and Experiments [0.0]
本稿では,対象関数の線形項と2次項を組み合わせたファジィクロップクラスタリングアルゴリズムを提案する。
このアルゴリズムでは、クラスタへのデータポイントのメンバシップが、クラスタセンタから十分に離れていれば、自動的に正確にゼロに設定される。
提案アルゴリズムは、不均衡なデータセットの従来の手法よりも優れており、よりバランスの取れたデータセットと競合することができる。
論文 参考訳(メタデータ) (2023-03-25T05:27:26Z) - Convex Clustering through MM: An Efficient Algorithm to Perform
Hierarchical Clustering [1.0589208420411012]
本稿では,クラスタ融合と高効率更新方式を用いた反復アルゴリズムCCMMによる凸クラスタリングを提案する。
現在のデスクトップコンピュータでは、CCMMは、7次元空間に100万以上のオブジェクトを含む凸クラスタリング問題を効率的に解決する。
論文 参考訳(メタデータ) (2022-11-03T15:07:51Z) - Very Compact Clusters with Structural Regularization via Similarity and
Connectivity [3.779514860341336]
本稿では,汎用データセットのためのエンドツーエンドのディープクラスタリングアルゴリズムであるVery Compact Clusters (VCC)を提案する。
提案手法は,最先端のクラスタリング手法よりも優れたクラスタリング性能を実現する。
論文 参考訳(メタデータ) (2021-06-09T23:22:03Z) - ParChain: A Framework for Parallel Hierarchical Agglomerative Clustering
using Nearest-Neighbor Chain [6.824747267214373]
本稿では並列階層クラスタリング(HAC)アルゴリズムを設計するためのParChainフレームワークを提案する。
従来の並列HACアルゴリズムと比較して、我々の新しいアルゴリズムは線形メモリしか必要とせず、大規模データセットにスケーラブルである。
我々のアルゴリズムは、既存のアルゴリズムでは処理できない数千万のポイントでデータセットのサイズにスケールすることができる。
論文 参考訳(メタデータ) (2021-06-08T23:13:27Z) - Exact and Approximate Hierarchical Clustering Using A* [51.187990314731344]
クラスタリングのA*探索に基づく新しいアプローチを紹介します。
A*と新しいエンフォレリスデータ構造を組み合わせることで、禁止的に大きな検索空間を克服します。
実験により,本手法は粒子物理利用事例や他のクラスタリングベンチマークにおいて,ベースラインよりもかなり高品質な結果が得られることを示した。
論文 参考訳(メタデータ) (2021-04-14T18:15:27Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - An Efficient Smoothing Proximal Gradient Algorithm for Convex Clustering [2.5182813818441945]
最近導入された凸クラスタリング手法は、凸最適化問題としてクラスタリングを定式化している。
最先端の凸クラスタリングアルゴリズムは大規模な計算とメモリ空間を必要とする。
本稿では,凸クラスタリングのための非常に効率的なスムーズな勾配法 (Sproga) を提案する。
論文 参考訳(メタデータ) (2020-06-22T20:02:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。