論文の概要: Stable and consistent density-based clustering
- arxiv url: http://arxiv.org/abs/2005.09048v2
- Date: Fri, 16 Jul 2021 17:38:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 23:22:29.972704
- Title: Stable and consistent density-based clustering
- Title(参考訳): 安定かつ一貫した密度に基づくクラスタリング
- Authors: Alexander Rolle, Luis Scoccola
- Abstract要約: 密度に基づくクラスタリングに対する一貫したアプローチは、入力データとパラメータの両方の安定性定理を満たす。
階層クラスタリングの標準的な単純化手順の安定性を実証する。
我々のフレームワークは、トポロジカルデータ分析からの永続性とインターリーブ距離の概念に基づいている。
- 参考スコア(独自算出の注目度): 77.34726150561087
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a multiscale, consistent approach to density-based clustering that
satisfies stability theorems -- in both the input data and in the parameters --
which hold without distributional assumptions. The stability in the input data
is with respect to the Gromov--Hausdorff--Prokhorov distance on metric
probability spaces and interleaving distances between (multi-parameter)
hierarchical clusterings we introduce. We prove stability results for standard
simplification procedures for hierarchical clusterings, which can be combined
with our approach to yield a stable flat clustering algorithm. We illustrate
the stability of the approach with computational examples. Our framework is
based on the concepts of persistence and interleaving distance from Topological
Data Analysis.
- Abstract(参考訳): 入力データとパラメータの両方において安定性定理を満足する密度に基づくクラスタリングに対して,分布仮定のないマルチスケールで一貫したアプローチを提案する。
入力データの安定性は、計量確率空間上のgromov--hausdorff-prokhorov距離と、我々が導入する(マルチパラメータ)階層クラスタリング間の間距離に関するものである。
階層クラスタリングの標準的な単純化手順に対する安定性を証明し、安定なクラスタリングアルゴリズムを得るための我々の手法と組み合わせることができる。
本稿では,このアプローチの安定性を計算例で示す。
我々のフレームワークは、トポロジカルデータ分析からの距離と持続性の概念に基づいている。
関連論文リスト
- Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Deep Embedding Clustering Driven by Sample Stability [16.53706617383543]
サンプル安定性(DECS)により駆動されるディープ埋め込みクラスタリングアルゴリズムを提案する。
具体的には、まずオートエンコーダで初期特徴空間を構築し、次にサンプル安定性に制約されたクラスタ指向の埋め込み機能を学ぶ。
5つのデータセットに対する実験結果から,提案手法は最先端のクラスタリング手法と比較して優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-01-29T09:19:49Z) - Rethinking k-means from manifold learning perspective [122.38667613245151]
平均推定なしで直接データのクラスタを検出する新しいクラスタリングアルゴリズムを提案する。
具体的には,バタワースフィルタを用いてデータ点間の距離行列を構成する。
異なる視点に埋め込まれた相補的な情報をうまく活用するために、テンソルのSchatten p-norm正規化を利用する。
論文 参考訳(メタデータ) (2023-05-12T03:01:41Z) - Fast conformational clustering of extensive molecular dynamics
simulation data [19.444636864515726]
本稿では,長い軌道の高速なコンフォーメーションクラスタリングを実現するために,教師なしのデータ処理ワークフローを提案する。
我々は密度に基づく空間クラスタリングアルゴリズム(HDBSCAN)と2つの次元削減アルゴリズム(cc_analysisとEncodermap)を組み合わせる。
4つのテストシステムの助けを借りて、このクラスタリングワークフローの機能とパフォーマンスを説明します。
論文 参考訳(メタデータ) (2023-01-11T14:36:43Z) - Enhancing cluster analysis via topological manifold learning [0.3823356975862006]
クラスタ化前にデータセットのトポロジ構造を推定することで,クラスタ検出を大幅に向上させることができることを示す。
位相構造を推定するための多様体学習法UMAPと密度に基づくクラスタリング法DBSCANを組み合わせた。
論文 参考訳(メタデータ) (2022-07-01T15:53:39Z) - Perfect Spectral Clustering with Discrete Covariates [68.8204255655161]
本稿では,大規模なスパースネットワークのクラスにおいて,高い確率で完全クラスタリングを実現するスペクトルアルゴリズムを提案する。
本手法は,スペクトルクラスタリングによる一貫した潜在構造回復を保証する最初の方法である。
論文 参考訳(メタデータ) (2022-05-17T01:41:06Z) - Quantile-based fuzzy C-means clustering of multivariate time series:
Robust techniques [2.3226893628361682]
外れ値の存在に対するロバスト性は、いわゆるメートル法、ノイズ、トリミングアプローチを用いて達成される。
シミュレーション実験の結果,アルゴリズムは外部系列の存在に対処する上で極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2021-09-22T20:26:12Z) - Fuzzy clustering algorithms with distance metric learning and entropy
regularization [0.0]
本稿では,ユークリッド,シティブロック,マハラノビス距離とエントロピー正規化に基づくファジィクラスタリングアルゴリズムを提案する。
合成および実データセットに関するいくつかの実験は、ノイズの多い画像テクスチャセグメンテーションへの応用を含む、これらの適応クラスタリング手法の有用性を実証している。
論文 参考訳(メタデータ) (2021-02-18T18:19:04Z) - Determinantal consensus clustering [77.34726150561087]
本稿では,クラスタリングアルゴリズムのランダム再起動における決定点プロセス (DPP) の利用を提案する。
DPPは部分集合内の中心点の多様性を好んでいる。
DPPとは対照的に、この手法は多様性の確保と、すべてのデータフェースについて良好なカバレッジを得るために失敗することを示す。
論文 参考訳(メタデータ) (2021-02-07T23:48:24Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。