論文の概要: A generalized Bayes framework for probabilistic clustering
- arxiv url: http://arxiv.org/abs/2006.05451v1
- Date: Tue, 9 Jun 2020 18:49:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 15:21:47.769828
- Title: A generalized Bayes framework for probabilistic clustering
- Title(参考訳): 確率的クラスタリングのための一般化ベイズフレームワーク
- Authors: Tommaso Rigon, Amy H. Herring, David B. Dunson
- Abstract要約: k平均とその変種のようなロスベースのクラスタリング手法は、データ内のグループを見つけるための標準ツールである。
混合モデルに基づくモデルベースのクラスタリングは代替手段を提供するが、そのような手法は計算上の問題に直面し、カーネルの選択に対して大きな感度を持つ。
本稿では,これらの2つのパラダイムをGibs後続法を用いてブリッジする一般化ベイズフレームワークを提案する。
- 参考スコア(独自算出の注目度): 3.3194866396158
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Loss-based clustering methods, such as k-means and its variants, are standard
tools for finding groups in data. However, the lack of quantification of
uncertainty in the estimated clusters is a disadvantage. Model-based clustering
based on mixture models provides an alternative, but such methods face
computational problems and large sensitivity to the choice of kernel. This
article proposes a generalized Bayes framework that bridges between these two
paradigms through the use of Gibbs posteriors. In conducting Bayesian updating,
the log likelihood is replaced by a loss function for clustering, leading to a
rich family of clustering methods. The Gibbs posterior represents a coherent
updating of Bayesian beliefs without needing to specify a likelihood for the
data, and can be used for characterizing uncertainty in clustering. We consider
losses based on Bregman divergence and pairwise similarities, and develop
efficient deterministic algorithms for point estimation along with sampling
algorithms for uncertainty quantification. Several existing clustering
algorithms, including k-means, can be interpreted as generalized Bayes
estimators under our framework, and hence we provide a method of uncertainty
quantification for these approaches.
- Abstract(参考訳): k-meansなどのロスベースのクラスタリング手法は、データ中のグループを見つけるための標準的なツールである。
しかし、推定クラスターにおける不確実性の定量化の欠如は不利である。
混合モデルに基づくモデルベースのクラスタリングは代替手段を提供するが、そのような手法は計算上の問題に直面し、カーネルの選択に対して大きな感度を持つ。
本稿では,これらの2つのパラダイムをGibs後続法を用いてブリッジする一般化ベイズフレームワークを提案する。
ベイズ更新を行う際、ログの確率はクラスタリングのための損失関数に置き換えられ、クラスタリングメソッドの豊富なファミリーに繋がる。
ギブスの後部は、データの可能性を特定せずにベイズ的信念の一貫性のある更新を表しており、クラスタリングの不確実性を特徴づけるのに使うことができる。
ブレグマン分岐とペアワイズ類似性に基づく損失を考察し,不確実性定量化のためのサンプリングアルゴリズムとともに,点推定のための効率的な決定論的アルゴリズムを開発した。
k-平均を含むいくつかの既存のクラスタリングアルゴリズムは、我々のフレームワークの下で一般化ベイズ推定器として解釈できるので、これらの手法に対する不確実な定量化法を提供する。
関連論文リスト
- Explaining Kernel Clustering via Decision Trees [10.504801686625129]
解釈可能なカーネルクラスタリングについて検討し、カーネルk-meansによって誘導されるパーティションを近似するために決定木を構築するアルゴリズムを提案する。
本稿は,k-meansに関する従来の研究に基づいて,解釈可能なモデルの近似保証を犠牲にすることなく,適切な特徴の選択が解釈可能性の維持を可能にすることを実証する。
論文 参考訳(メタデータ) (2024-02-15T11:08:23Z) - Likelihood Ratio Confidence Sets for Sequential Decision Making [51.66638486226482]
確率に基づく推論の原理を再検討し、確率比を用いて妥当な信頼シーケンスを構築することを提案する。
本手法は, 精度の高い問題に特に適している。
提案手法は,オンライン凸最適化への接続に光を当てることにより,推定器の最適シーケンスを確実に選択する方法を示す。
論文 参考訳(メタデータ) (2023-11-08T00:10:21Z) - Entropy regularization in probabilistic clustering [0.0]
クラスタリング構成の新しいベイズ推定器を提案する。
提案手法は,スパースクラスタ数の削減を目的とした後処理手法と等価である。
論文 参考訳(メタデータ) (2023-07-19T15:36:40Z) - Bayesian Quantification with Black-Box Estimators [1.599072005190786]
調整された分類と数、ブラックボックスシフト推定器、不変比推定器などのアプローチでは、クラス分布を推定し、弱い仮定の下で保証を得る補助的(および潜在的に偏りのある)ブラックボックス分類器を用いる。
これら全てのアルゴリズムが特定のベイズ連鎖モデルにおける推論と密接に関連していることを示し、仮定された基底構造生成過程を近似する。
次に,導入モデルに対する効率的なマルコフ・モンテカルロサンプリング手法について検討し,大容量データ限界における一貫性の保証を示す。
論文 参考訳(メタデータ) (2023-02-17T22:10:04Z) - A One-shot Framework for Distributed Clustered Learning in Heterogeneous
Environments [54.172993875654015]
異種環境における分散学習のためのコミュニケーション効率化手法のファミリーを提案する。
ユーザによるローカル計算に基づくワンショットアプローチと、サーバにおけるクラスタリングベースのアグリゲーションステップは、強力な学習保証を提供する。
厳密な凸問題に対しては,ユーザ毎のデータ点数がしきい値を超える限り,提案手法はサンプルサイズの観点から順序最適平均二乗誤差率を達成する。
論文 参考訳(メタデータ) (2022-09-22T09:04:10Z) - Bregman Power k-Means for Clustering Exponential Family Data [11.434503492579477]
我々は、ブレグマン発散の下でのハードクラスタリングに関する古典的な研究のアルゴリズム的進歩を橋渡しする。
ブレグマン発散のエレガントな性質は、単純で透明なアルゴリズムで閉形式更新を維持できる。
シミュレーション実験の徹底的な実証分析と降雨データに関するケーススタディを考察し,提案手法はガウス以外の様々なデータ設定において,既存のピア手法よりも優れていることを示した。
論文 参考訳(メタデータ) (2022-06-22T06:09:54Z) - Gradient Based Clustering [72.15857783681658]
本稿では,クラスタリングの品質を計測するコスト関数の勾配を用いて,距離に基づくクラスタリングの一般的な手法を提案する。
アプローチは反復的な2段階の手順(クラスタ割り当てとクラスタセンターのアップデートの代替)であり、幅広い機能に適用できる。
論文 参考訳(メタデータ) (2022-02-01T19:31:15Z) - Self-Certifying Classification by Linearized Deep Assignment [65.0100925582087]
そこで我々は,PAC-Bayesリスク認定パラダイム内で,グラフ上のメトリックデータを分類するための新しい深層予測器のクラスを提案する。
PAC-Bayesの最近の文献とデータに依存した先行研究に基づいて、この手法は仮説空間上の後続分布の学習を可能にする。
論文 参考訳(メタデータ) (2022-01-26T19:59:14Z) - Lattice-Based Methods Surpass Sum-of-Squares in Clustering [98.46302040220395]
クラスタリングは教師なし学習における基本的なプリミティブである。
最近の研究は、低次手法のクラスに対する低い境界を確立している。
意外なことに、この特定のクラスタリングモデルのtextitdoesは、統計的-計算的ギャップを示さない。
論文 参考訳(メタデータ) (2021-12-07T18:50:17Z) - Robust M-Estimation Based Bayesian Cluster Enumeration for Real
Elliptically Symmetric Distributions [5.137336092866906]
データセットにおける最適なクラスタ数のロバストな決定は、広範囲のアプリケーションにおいて必須の要素である。
本稿では任意のReally Symmetric(RES)分散混合モデルで使用できるように一般化する。
サンプルサイズが有限であるデータセットに対して,ロバストな基準を導出するとともに,大規模なサンプルサイズでの計算コスト削減のための近似を提供する。
論文 参考訳(メタデータ) (2020-05-04T11:44:49Z) - A General Method for Robust Learning from Batches [56.59844655107251]
本稿では,バッチから頑健な学習を行う一般的なフレームワークについて考察し,連続ドメインを含む任意の領域に対する分類と分布推定の限界について考察する。
本手法は,一括分節分類,一括分節,単調,対数凹,ガウス混合分布推定のための,最初の頑健な計算効率の学習アルゴリズムを導出する。
論文 参考訳(メタデータ) (2020-02-25T18:53:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。