論文の概要: Bregman Power k-Means for Clustering Exponential Family Data
- arxiv url: http://arxiv.org/abs/2206.10860v1
- Date: Wed, 22 Jun 2022 06:09:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-23 15:43:01.358434
- Title: Bregman Power k-Means for Clustering Exponential Family Data
- Title(参考訳): bregman power k-meansによる指数関数型家族データのクラスタリング
- Authors: Adithya Vellal, Saptarshi Chakraborty and Jason Xu
- Abstract要約: 我々は、ブレグマン発散の下でのハードクラスタリングに関する古典的な研究のアルゴリズム的進歩を橋渡しする。
ブレグマン発散のエレガントな性質は、単純で透明なアルゴリズムで閉形式更新を維持できる。
シミュレーション実験の徹底的な実証分析と降雨データに関するケーススタディを考察し,提案手法はガウス以外の様々なデータ設定において,既存のピア手法よりも優れていることを示した。
- 参考スコア(独自算出の注目度): 11.434503492579477
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent progress in center-based clustering algorithms combats poor local
minima by implicit annealing, using a family of generalized means. These
methods are variations of Lloyd's celebrated $k$-means algorithm, and are most
appropriate for spherical clusters such as those arising from Gaussian data. In
this paper, we bridge these algorithmic advances to classical work on hard
clustering under Bregman divergences, which enjoy a bijection to exponential
family distributions and are thus well-suited for clustering objects arising
from a breadth of data generating mechanisms. The elegant properties of Bregman
divergences allow us to maintain closed form updates in a simple and
transparent algorithm, and moreover lead to new theoretical arguments for
establishing finite sample bounds that relax the bounded support assumption
made in the existing state of the art. Additionally, we consider thorough
empirical analyses on simulated experiments and a case study on rainfall data,
finding that the proposed method outperforms existing peer methods in a variety
of non-Gaussian data settings.
- Abstract(参考訳): センタベースクラスタリングアルゴリズムの最近の進歩は、一般化された手段のファミリーを使用して、暗黙のアニーリングによる貧弱なローカルミニマと戦う。
これらの方法はロイドの有名な$k$-meansアルゴリズムのバリエーションであり、ガウスデータから生じるような球状クラスタに最も適している。
本稿では,これらのアルゴリズムの進歩を,指数関数的家族分布への単射効果を享受し,データ生成機構の幅広さから生じるクラスタリング対象に適しているBregman発散に基づく古典的クラスタリングに橋渡しする。
bregman divergencesのエレガントな性質は、単純で透明なアルゴリズムでクローズドフォーム更新を維持することを可能にし、さらに、既存の状態における境界付きサポート仮定を緩和する有限サンプル境界を確立するための新しい理論的議論につながる。
さらに,シミュレーション実験の徹底した経験的解析と降雨データに関するケーススタディを考察し,提案手法が非ゲージデータ設定において既存のピアメソッドよりも優れていることを見出した。
関連論文リスト
- GCC: Generative Calibration Clustering [55.44944397168619]
本稿では,特徴学習と拡張をクラスタリングに組み込む新しいGCC法を提案する。
まず,実検体と実検体間の固有関係を識別する識別的特徴アライメント機構を開発する。
第二に、より信頼性の高いクラスタ割り当てを生成するための自己教師付きメトリック学習を設計する。
論文 参考訳(メタデータ) (2024-04-14T01:51:11Z) - Deep Embedding Clustering Driven by Sample Stability [16.53706617383543]
サンプル安定性(DECS)により駆動されるディープ埋め込みクラスタリングアルゴリズムを提案する。
具体的には、まずオートエンコーダで初期特徴空間を構築し、次にサンプル安定性に制約されたクラスタ指向の埋め込み機能を学ぶ。
5つのデータセットに対する実験結果から,提案手法は最先端のクラスタリング手法と比較して優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-01-29T09:19:49Z) - Distributed Markov Chain Monte Carlo Sampling based on the Alternating
Direction Method of Multipliers [143.6249073384419]
本論文では,乗算器の交互方向法に基づく分散サンプリング手法を提案する。
我々は,アルゴリズムの収束に関する理論的保証と,その最先端性に関する実験的証拠の両方を提供する。
シミュレーションでは,線形回帰タスクとロジスティック回帰タスクにアルゴリズムを配置し,その高速収束を既存の勾配法と比較した。
論文 参考訳(メタデータ) (2024-01-29T02:08:40Z) - A provable initialization and robust clustering method for general mixture models [6.806940901668607]
クラスタリングは、異種データの存在下での統計機械学習の基本的なツールである。
最新の結果は、ガウス以下の誤差を伴うセントロイドの周りにデータが分散されている場合に、最適なラベルの誤りを保証することに焦点が当てられている。
論文 参考訳(メタデータ) (2024-01-10T22:56:44Z) - Robust and Automatic Data Clustering: Dirichlet Process meets
Median-of-Means [18.3248037914529]
本稿では,モデルに基づく手法とセントロイド方式の原理を統合することにより,効率的かつ自動的なクラスタリング手法を提案する。
クラスタリング誤差の上限に関する統計的保証は,既存のクラスタリングアルゴリズムよりも提案手法の利点を示唆している。
論文 参考訳(メタデータ) (2023-11-26T19:01:15Z) - A One-shot Framework for Distributed Clustered Learning in Heterogeneous
Environments [54.172993875654015]
異種環境における分散学習のためのコミュニケーション効率化手法のファミリーを提案する。
ユーザによるローカル計算に基づくワンショットアプローチと、サーバにおけるクラスタリングベースのアグリゲーションステップは、強力な学習保証を提供する。
厳密な凸問題に対しては,ユーザ毎のデータ点数がしきい値を超える限り,提案手法はサンプルサイズの観点から順序最適平均二乗誤差率を達成する。
論文 参考訳(メタデータ) (2022-09-22T09:04:10Z) - Kernel Biclustering algorithm in Hilbert Spaces [8.303238963864885]
我々は,エネルギー距離と平均誤差の最大値という概念を用いて,抽象空間における新しいモデルフリー・ビクラスタリングアルゴリズムを開発した。
提案手法は,既存の文献よりも一般的で複雑なクラスタ形状を学習することができる。
提案手法は,カーネルの適切な選択を前提として,その最適シナリオにおける最先端手法と類似している。
論文 参考訳(メタデータ) (2022-08-07T08:41:46Z) - Gradient Based Clustering [72.15857783681658]
本稿では,クラスタリングの品質を計測するコスト関数の勾配を用いて,距離に基づくクラスタリングの一般的な手法を提案する。
アプローチは反復的な2段階の手順(クラスタ割り当てとクラスタセンターのアップデートの代替)であり、幅広い機能に適用できる。
論文 参考訳(メタデータ) (2022-02-01T19:31:15Z) - Lattice-Based Methods Surpass Sum-of-Squares in Clustering [98.46302040220395]
クラスタリングは教師なし学習における基本的なプリミティブである。
最近の研究は、低次手法のクラスに対する低い境界を確立している。
意外なことに、この特定のクラスタリングモデルのtextitdoesは、統計的-計算的ギャップを示さない。
論文 参考訳(メタデータ) (2021-12-07T18:50:17Z) - Deep Conditional Gaussian Mixture Model for Constrained Clustering [7.070883800886882]
制約付きクラスタリングは、部分的にラベル付けされたデータの増加量に関する事前情報を利用することができる。
本稿では、直感的で解釈可能で、勾配変動推論の枠組みで効率的に訓練できる制約付きクラスタリングのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-11T13:38:09Z) - Clustering Binary Data by Application of Combinatorial Optimization
Heuristics [52.77024349608834]
本稿では,2値データのクラスタリング手法について検討し,まず,クラスタのコンパクトさを計測するアグリゲーション基準を定義した。
近隣地域と人口動態最適化メタヒューリスティックスを用いた5つの新しいオリジナル手法が導入された。
準モンテカルロ実験によって生成された16のデータテーブルから、L1の相似性と階層的クラスタリング、k-means(メドイドやPAM)の1つのアグリゲーションの比較を行う。
論文 参考訳(メタデータ) (2020-01-06T23:33:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。