論文の概要: Enhancing Kernel Power K-means: Scalable and Robust Clustering with Random Fourier Features and Possibilistic Method
- arxiv url: http://arxiv.org/abs/2511.10392v1
- Date: Fri, 14 Nov 2025 01:48:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.844993
- Title: Enhancing Kernel Power K-means: Scalable and Robust Clustering with Random Fourier Features and Possibilistic Method
- Title(参考訳): カーネルパワーK平均の強化:ランダムフーリエ特徴と確率的手法によるスケーラブルでロバストなクラスタリング
- Authors: Yixi Chen, Weixuan Liang, Tianrui Liu, Jun-Jie Huang, Ao Li, Xueling Zhu, Xinwang Liu,
- Abstract要約: カーネルパワー$k$-means (KPKM) は、カーネル$k$-meansのローカルミニマ問題を緩和する手段のファミリーを利用する。
RFF-KPKMはRFFを用いて効率的な低次元特徴写像を生成する。
IP-RFF-MKPKMは、RFFによるMKPKMのスケーラビリティを確保し、クラスタ割り当てを改良する。
- 参考スコア(独自算出の注目度): 37.202008286849875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Kernel power $k$-means (KPKM) leverages a family of means to mitigate local minima issues in kernel $k$-means. However, KPKM faces two key limitations: (1) the computational burden of the full kernel matrix restricts its use on extensive data, and (2) the lack of authentic centroid-sample assignment learning reduces its noise robustness. To overcome these challenges, we propose RFF-KPKM, introducing the first approximation theory for applying random Fourier features (RFF) to KPKM. RFF-KPKM employs RFF to generate efficient, low-dimensional feature maps, bypassing the need for the whole kernel matrix. Crucially, we are the first to establish strong theoretical guarantees for this combination: (1) an excess risk bound of $\mathcal{O}(\sqrt{k^3/n})$, (2) strong consistency with membership values, and (3) a $(1+\varepsilon)$ relative error bound achievable using the RFF of dimension $\mathrm{poly}(\varepsilon^{-1}\log k)$. Furthermore, to improve robustness and the ability to learn multiple kernels, we propose IP-RFF-MKPKM, an improved possibilistic RFF-based multiple kernel power $k$-means. IP-RFF-MKPKM ensures the scalability of MKPKM via RFF and refines cluster assignments by combining the merits of the possibilistic membership and fuzzy membership. Experiments on large-scale datasets demonstrate the superior efficiency and clustering accuracy of the proposed methods compared to the state-of-the-art alternatives.
- Abstract(参考訳): カーネルパワー$k$-means (KPKM) は、カーネル$k$-meansのローカルミニマ問題を緩和する手段のファミリーを利用する。
しかしながら、KPKMは、(1)フルカーネル行列の計算負担が、その広範なデータに対する使用を制限すること、(2)正当なセントロイド・サンプル割当学習の欠如により、ノイズの堅牢性が低下すること、の2つの重要な制限に直面している。
これらの課題を克服するため、我々はRFF-KPKMを提案し、ランダムフーリエ特徴(RFF)をKPKMに適用するための最初の近似理論を導入した。
RFF-KPKMはRFFを使用して、カーネルマトリックス全体の必要性を回避し、効率的で低次元の特徴マップを生成する。
1) 過剰なリスク境界$\mathcal{O}(\sqrt{k^3/n})$, (2) メンバシップ値との強い一貫性、(3) a $(1+\varepsilon)$ 相対誤差境界$ $\mathrm{poly}(\varepsilon^{-1}\log k)$ である。
さらに、ロバスト性と複数のカーネルを学習する能力を向上させるため、IP-RFF-MKPKMを提案する。
IP-RFF-MKPKMは、RFFによるMKPKMのスケーラビリティを確保し、確率的メンバシップとファジィメンバシップのメリットを組み合わせたクラスタ割り当てを洗練する。
大規模データセットの実験では、提案手法の精度とクラスタリング精度が最先端の代替手法と比較して優れていることが示されている。
関連論文リスト
- Theory of Decentralized Robust Kernel-Based Learning [8.407288892993703]
我々は、カーネルヒルベルト空間を再現する枠組みの中で、新しい堅牢なカーネルベース学習アルゴリズムを提案する。
分散化アルゴリズムから生成された各局所ロバスト推定器を用いて回帰関数を近似することができることを示す。
局所的なサンプルサイズに対する厳密な選択ルールを提供し、適切に選択されたステップサイズとスケーリングパラメータ$sigma$では、分散化されたロバストアルゴリズムが最適な学習率を達成することができることを示す。
論文 参考訳(メタデータ) (2025-06-05T16:30:05Z) - Near-Optimal Clustering in Mixture of Markov Chains [74.3828414695655]
我々は、長さ$H$の軌跡を、大きさ$S$の有限状態空間上の未知のエルゴードマルコフ鎖の1つによって生成される、$T$ trajectories of length $H$の問題を研究する。
我々は、連鎖の遷移核間の重み付きKL分散によって支配されるクラスタリングエラー率に基づいて、インスタンス依存で高い確率の低い境界を導出する。
次に,新しい2段階クラスタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-06-02T05:10:40Z) - Sample Complexity of Distributionally Robust Average-Reward Reinforcement Learning [10.708457894356563]
ほぼ最適サンプル複雑性を実現するアルゴリズムを2つ提案する。
両アルゴリズムが最適なポリシを推定するために,$widetildeOleft(|mathbfS||mathbfA| t_mathrmmix2varepsilon-2right)のサンプル複雑性が得られることを証明した。
これはDR平均逆強化学習における最初の有限サンプル収束保証である。
論文 参考訳(メタデータ) (2025-05-15T06:42:25Z) - DFedADMM: Dual Constraints Controlled Model Inconsistency for
Decentralized Federated Learning [52.83811558753284]
分散学習(DFL)は、中央サーバーを捨て、分散通信ネットワークを確立する。
既存のDFL手法は依然として、局所的な矛盾と局所的な過度なオーバーフィッティングという2つの大きな課題に悩まされている。
論文 参考訳(メタデータ) (2023-08-16T11:22:36Z) - RFFNet: Large-Scale Interpretable Kernel Methods via Random Fourier Features [3.0079490585515347]
RFFNetは1次最適化によってカーネルの関連性をリアルタイムで学習するスケーラブルな手法である。
提案手法はメモリフットプリントが小さく,実行時,予測誤差が低く,関連する特徴を効果的に識別できることを示す。
私たちは、Scikit-learn標準APIと結果を完全に再現するためのコードに準拠した、効率的でPyTorchベースのライブラリをユーザに提供します。
論文 参考訳(メタデータ) (2022-11-11T18:50:34Z) - Local Sample-weighted Multiple Kernel Clustering with Consensus
Discriminative Graph [73.68184322526338]
マルチカーネルクラスタリング(MKC)は、ベースカーネルの集合から最適な情報融合を実現するためにコミットされる。
本稿では,新しい局所サンプル重み付きマルチカーネルクラスタリングモデルを提案する。
実験により, LSWMKCはより優れた局所多様体表現を有し, 既存のカーネルやグラフベースのクラスタリングアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2022-07-05T05:00:38Z) - Self-supervised Symmetric Nonnegative Matrix Factorization [82.59905231819685]
シンメトリー非負係数行列(SNMF)は、データクラスタリングの強力な方法であることを示した。
より良いクラスタリング結果を求めるアンサンブルクラスタリングにインスパイアされた,自己監視型SNMF(S$3$NMF)を提案する。
SNMFのコード特性に対する感度を、追加情報に頼らずに活用しています。
論文 参考訳(メタデータ) (2021-03-02T12:47:40Z) - SimpleMKKM: Simple Multiple Kernel K-means [49.500663154085586]
単純なマルチカーネルk-means(SimpleMKKM)と呼ばれる,単純で効果的なマルチカーネルクラスタリングアルゴリズムを提案する。
我々の基準は、カーネル係数とクラスタリング分割行列における難解な最小化最大化問題によって与えられる。
クラスタリング一般化誤差の観点から,SimpleMKKMの性能を理論的に解析する。
論文 参考訳(メタデータ) (2020-05-11T10:06:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。