論文の概要: Entropy Regularized Power k-Means Clustering
- arxiv url: http://arxiv.org/abs/2001.03452v1
- Date: Fri, 10 Jan 2020 14:05:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-12 22:45:56.133237
- Title: Entropy Regularized Power k-Means Clustering
- Title(参考訳): エントロピー正規化パワーk平均クラスタリング
- Authors: Saptarshi Chakraborty, Debolina Paul, Swagatam Das, Jason Xu
- Abstract要約: 本稿では、クローズドフォーム更新と収束保証を享受できるスケーラブルな大規模化最小化アルゴリズムを提案する。
我々の手法は、$k$-meansと$k$-meansと同じ計算量を維持しているが、どちらも大幅に改善されている。
- 参考スコア(独自算出の注目度): 21.013169939337583
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite its well-known shortcomings, $k$-means remains one of the most widely
used approaches to data clustering. Current research continues to tackle its
flaws while attempting to preserve its simplicity. Recently, the \textit{power
$k$-means} algorithm was proposed to avoid trapping in local minima by
annealing through a family of smoother surfaces. However, the approach lacks
theoretical justification and fails in high dimensions when many features are
irrelevant. This paper addresses these issues by introducing \textit{entropy
regularization} to learn feature relevance while annealing. We prove
consistency of the proposed approach and derive a scalable
majorization-minimization algorithm that enjoys closed-form updates and
convergence guarantees. In particular, our method retains the same
computational complexity of $k$-means and power $k$-means, but yields
significant improvements over both. Its merits are thoroughly assessed on a
suite of real and synthetic data experiments.
- Abstract(参考訳): 既知の欠点にもかかわらず、$k$-meansは、データクラスタリングにおいて最も広く使われているアプローチの1つだ。
現在の研究は、シンプルさを保ちながら、欠陥に取り組み続けている。
近年,平滑な表面を熱処理することで局所ミニマのトラップを避けるために,textit{power $k$-means}アルゴリズムが提案されている。
しかし、このアプローチは理論的正当性が欠如しており、多くの特徴が無関係な場合には高次元で失敗する。
本稿では,アニーリング中に特徴の関連性を学ぶために, \textit{entropy regularization} を導入することで,これらの問題に対処する。
提案手法の一貫性を証明し,クローズドフォーム更新と収束保証を楽しむスケーラブルなメジャー化最小化アルゴリズムを導出する。
特に,本手法は,$k$-meansと$k$-meansの計算複雑性を保ちながら,両者よりも大幅に改善されている。
その利点は、実データと合成データの実験で徹底的に評価されている。
関連論文リスト
- S-CFE: Simple Counterfactual Explanations [21.975560789792073]
スパースデータに対する多様体対応の反実的説明を求める問題に対処する。
提案手法は,スパースかつ多様体に整列した反実的説明を効果的に生成する。
論文 参考訳(メタデータ) (2024-10-21T07:42:43Z) - Riemannian stochastic optimization methods avoid strict saddle points [68.80251170757647]
研究中のポリシーは、確率 1 の厳密なサドル点/部分多様体を避けていることを示す。
この結果は、アルゴリズムの極限状態が局所最小値にしかならないことを示すため、重要な正当性チェックを提供する。
論文 参考訳(メタデータ) (2023-11-04T11:12:24Z) - Are Easy Data Easy (for K-Means) [0.0]
本稿では、$k$-meansアルゴリズムの様々なブランドによって、適切に分離されたクラスタを復元する能力について検討する。
シード選択時に繰り返しサブサンプリングによって$k$-means++のバリエーションが提案される。
論文 参考訳(メタデータ) (2023-08-02T09:40:19Z) - Differentially-Private Hierarchical Clustering with Provable
Approximation Guarantees [79.59010418610625]
階層クラスタリングのための微分プライベート近似アルゴリズムについて検討する。
例えば、$epsilon$-DPアルゴリズムは入力データセットに対して$O(|V|2/epsilon)$-additiveエラーを示さなければならない。
本稿では,ブロックを正確に復元する1+o(1)$近似アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-01-31T19:14:30Z) - Optimal Algorithms for Stochastic Complementary Composite Minimization [55.26935605535377]
統計学と機械学習における正規化技術に触発され,補完的な複合化の最小化について検討した。
予測と高い確率で、新しい過剰なリスク境界を提供する。
我々のアルゴリズムはほぼ最適であり、このクラスの問題に対して、新しいより低い複雑性境界によって証明する。
論文 参考訳(メタデータ) (2022-11-03T12:40:24Z) - A Boosting Approach to Reinforcement Learning [59.46285581748018]
複雑度が状態数に依存しない意思決定プロセスにおける強化学習のための効率的なアルゴリズムについて検討する。
このような弱い学習手法の精度を向上させることができる効率的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-08-22T16:00:45Z) - Byzantine-Resilient Non-Convex Stochastic Gradient Descent [61.6382287971982]
敵対的レジリエントな分散最適化。
機械は独立して勾配を計算し 協力することができます
私達のアルゴリズムは新しい集中の技術およびサンプル複雑性に基づいています。
それは非常に実用的です:それはないときすべての前の方法の性能を改善します。
セッティングマシンがあります。
論文 参考訳(メタデータ) (2020-12-28T17:19:32Z) - Kernel k-Means, By All Means: Algorithms and Strong Consistency [21.013169939337583]
Kernel $k$クラスタリングは、非線形データの教師なし学習のための強力なツールである。
本稿では,最適化された局所解に対処するための一般的な手法を応用した結果を一般化する。
我々のアルゴリズムは、この非線形分離問題をよりよく解くために、Magricalization-minimization (MM) を利用している。
論文 参考訳(メタデータ) (2020-11-12T16:07:18Z) - CIMON: Towards High-quality Hash Codes [63.37321228830102]
我々はtextbfComprehensive stextbfImilarity textbfMining と ctextbfOnsistency leartextbfNing (CIMON) という新しい手法を提案する。
まず、グローバルな洗練と類似度統計分布を用いて、信頼性とスムーズなガイダンスを得る。第二に、意味的整合性学習とコントラスト的整合性学習の両方を導入して、乱不変と差別的ハッシュコードの両方を導出する。
論文 参考訳(メタデータ) (2020-10-15T14:47:14Z) - Simple and Scalable Sparse k-means Clustering via Feature Ranking [14.839931533868176]
直感的で実装が簡単で,最先端のアルゴリズムと競合する,スパースk平均クラスタリングのための新しいフレームワークを提案する。
本手法は,属性のサブセットのクラスタリングや部分的に観測されたデータ設定など,タスク固有のアルゴリズムに容易に一般化できる。
論文 参考訳(メタデータ) (2020-02-20T02:41:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。