論文の概要: A New Framework for Convex Clustering in Kernel Spaces: Finite Sample Bounds, Consistency and Performance Insights
- arxiv url: http://arxiv.org/abs/2511.05159v1
- Date: Fri, 07 Nov 2025 11:24:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.741317
- Title: A New Framework for Convex Clustering in Kernel Spaces: Finite Sample Bounds, Consistency and Performance Insights
- Title(参考訳): カーネル空間における凸クラスタリングのための新しいフレームワーク - 有限サンプル境界,一貫性,パフォーマンス指標
- Authors: Shubhayan Pan, Saptarshi Chakraborty, Debolina Paul, Kushal Bose, Swagatam Das,
- Abstract要約: 凸クラスタリング(英: Convex clustering)は、ロイドの$k$-means(英語版)に類似したセントロイドベースのアプローチに似た、よく考えられたクラスタリング法である。
本稿では、データポイントを再生カーネル(RKHS)に変換するために、凸クラスタリング法のカーネル埋め込み拡張を提案する。
- 参考スコア(独自算出の注目度): 27.253757893368387
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convex clustering is a well-regarded clustering method, resembling the similar centroid-based approach of Lloyd's $k$-means, without requiring a predefined cluster count. It starts with each data point as its centroid and iteratively merges them. Despite its advantages, this method can fail when dealing with data exhibiting linearly non-separable or non-convex structures. To mitigate the limitations, we propose a kernelized extension of the convex clustering method. This approach projects the data points into a Reproducing Kernel Hilbert Space (RKHS) using a feature map, enabling convex clustering in this transformed space. This kernelization not only allows for better handling of complex data distributions but also produces an embedding in a finite-dimensional vector space. We provide a comprehensive theoretical underpinnings for our kernelized approach, proving algorithmic convergence and establishing finite sample bounds for our estimates. The effectiveness of our method is demonstrated through extensive experiments on both synthetic and real-world datasets, showing superior performance compared to state-of-the-art clustering techniques. This work marks a significant advancement in the field, offering an effective solution for clustering in non-linear and non-convex data scenarios.
- Abstract(参考訳): 凸クラスタリング(英: Convex clustering)は、ロイドの$k$-means(英語版)と同様のセントロイドベースのアプローチに似ており、事前に定義されたクラスタ数を必要としない。
まずは各データポイントから開始し、その中心となるデータを反復的にマージする。
その利点にもかかわらず、この方法は線形に分離不能または非凸構造を示すデータを扱う際に失敗する可能性がある。
この制限を緩和するため,コンベックスクラスタリング手法のカーネル拡張を提案する。
このアプローチは、特徴マップを使用してデータポイントを再生カーネルヒルベルト空間(RKHS)に投影し、この変換された空間における凸クラスタリングを可能にする。
このカーネル化は、複素データ分布のより良い処理を可能にするだけでなく、有限次元ベクトル空間に埋め込みを生成する。
我々は、カーネル化されたアプローチの包括的な理論的基盤を提供し、アルゴリズムの収束を証明し、見積もりの有限標本境界を確立する。
提案手法の有効性は, 合成および実世界の両方のデータセットに対する広範な実験により実証され, 最先端クラスタリング技術よりも優れた性能を示した。
この作業は、非線形および非凸データシナリオにおけるクラスタリングの効果的なソリューションを提供する、この分野における重要な進歩である。
関連論文リスト
- Scalable Context-Preserving Model-Aware Deep Clustering for Hyperspectral Images [51.95768218975529]
ハイパースペクトル画像(HSI)の教師なし解析にサブスペースクラスタリングが広く採用されている。
近年のモデル対応深層空間クラスタリング手法では、O(n2)の複雑性を持つ自己表現行列の計算とスペクトルクラスタリングを含む2段階のフレームワークを用いることが多い。
本稿では,HSIクラスタリングを効率的に行うために,局所構造と非局所構造を協調的にキャプチャする,ベース表現に基づく拡張性のあるコンテキスト保存深層クラスタリング手法を提案する。
論文 参考訳(メタデータ) (2025-06-12T16:43:09Z) - Graph Probability Aggregation Clustering [5.377020739388736]
本稿では,グローバルクラスタリング対象関数と局所クラスタリング制約を統一するグラフベースのファジィクラスタリングアルゴリズムを提案する。
GPACフレームワーク全体は多制約最適化問題として定式化され、ラグランジアン法を用いて解くことができる。
合成,実世界,ディープラーニングのデータセットを用いて行った実験は,GPACがクラスタリング性能において既存の最先端手法を超えるだけでなく,計算効率も優れていることを示した。
論文 参考訳(メタデータ) (2025-02-27T09:11:32Z) - Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Fuzzy K-Means Clustering without Cluster Centroids [21.256564324236333]
ファジィK平均クラスタリングは教師なしデータ分析において重要な手法である。
本稿では,クラスタセントロイドへの依存を完全に排除する,ファジィテクストK-Meansクラスタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-04-07T12:25:03Z) - Distributional Reduction: Unifying Dimensionality Reduction and Clustering with Gromov-Wasserstein [56.62376364594194]
教師なし学習は、潜在的に大きな高次元データセットの基盤構造を捉えることを目的としている。
本研究では、最適輸送のレンズの下でこれらのアプローチを再検討し、Gromov-Wasserstein問題と関係を示す。
これにより、分散還元と呼ばれる新しい一般的なフレームワークが公開され、DRとクラスタリングを特別なケースとして回復し、単一の最適化問題内でそれらに共同で対処することができる。
論文 参考訳(メタデータ) (2024-02-03T19:00:19Z) - Very Compact Clusters with Structural Regularization via Similarity and
Connectivity [3.779514860341336]
本稿では,汎用データセットのためのエンドツーエンドのディープクラスタリングアルゴリズムであるVery Compact Clusters (VCC)を提案する。
提案手法は,最先端のクラスタリング手法よりも優れたクラスタリング性能を実現する。
論文 参考訳(メタデータ) (2021-06-09T23:22:03Z) - On Convex Clustering Solutions [17.88507043266033]
凸クラスタリングは、効率性や最適性などの良好な特性を持つ魅力的なクラスタリングアルゴリズムです。
凸クラスタリングは大きなギャップを持つ球でクラスタを学習できることを示す。
論文 参考訳(メタデータ) (2021-05-18T08:19:29Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - Simple and Scalable Sparse k-means Clustering via Feature Ranking [14.839931533868176]
直感的で実装が簡単で,最先端のアルゴリズムと競合する,スパースk平均クラスタリングのための新しいフレームワークを提案する。
本手法は,属性のサブセットのクラスタリングや部分的に観測されたデータ設定など,タスク固有のアルゴリズムに容易に一般化できる。
論文 参考訳(メタデータ) (2020-02-20T02:41:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。