論文の概要: Clustering by Nonparametric Smoothing
- arxiv url: http://arxiv.org/abs/2503.09134v1
- Date: Wed, 12 Mar 2025 07:44:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-13 15:40:23.490414
- Title: Clustering by Nonparametric Smoothing
- Title(参考訳): 非パラメトリック平滑化によるクラスタリング
- Authors: David P. Hofmeyr,
- Abstract要約: クラスタリング問題の新たな定式化は、タスクを推定問題として表現するものである。
提案手法は、任意の明示的なモデリング仮定を回避し、非パラメトリックな平滑化の柔軟な推定ポテンシャルを利用する。
提案手法の強い性能を示すために,公開データセットの大規模なコレクションに関する実験が用いられている。
- 参考スコア(独自算出の注目度): 6.635604919499181
- License:
- Abstract: A novel formulation of the clustering problem is introduced in which the task is expressed as an estimation problem, where the object to be estimated is a function which maps a point to its distribution of cluster membership. Unlike existing approaches which implicitly estimate such a function, like Gaussian Mixture Models (GMMs), the proposed approach bypasses any explicit modelling assumptions and exploits the flexible estimation potential of nonparametric smoothing. An intuitive approach for selecting the tuning parameters governing estimation is provided, which allows the proposed method to automatically determine both an appropriate level of flexibility and also the number of clusters to extract from a given data set. Experiments on a large collection of publicly available data sets are used to document the strong performance of the proposed approach, in comparison with relevant benchmarks from the literature. R code to implement the proposed approach is available from https://github.com/DavidHofmeyr/ CNS
- Abstract(参考訳): クラスタリング問題の新たな定式化では、タスクを推定問題として表現し、推定対象をクラスタメンバシップの分布にポイントをマッピングする関数とする。
ガウス混合モデル(GMM)のような、そのような関数を暗黙的に推定する既存のアプローチとは異なり、提案手法は明示的なモデリング仮定をバイパスし、非パラメトリックな平滑化の柔軟な推定可能性を利用する。
提案手法は, 最適レベルのフレキシビリティと, 与えられたデータセットから抽出するクラスタ数の両方を自動的に決定する。
論文の関連するベンチマークと比較して,提案手法の強い性能を示すために,公開データセットの大規模な収集実験が用いられている。
提案されたアプローチを実装するためのRコードは、https://github.com/DavidHofmeyr/CNSから入手できる。
関連論文リスト
- Deep Clustering via Probabilistic Ratio-Cut Optimization [0.7366405857677227]
本稿では,二項代入を確率変数としてモデル化することで,グラフ比カットを最適化する新しい手法を提案する。
オンライン環境における代入変数のパラメータを学習するために、予測比カットの上限と、その勾配の偏りのない推定値を提供する。
論文 参考訳(メタデータ) (2025-02-05T17:47:53Z) - Bayesian Estimation and Tuning-Free Rank Detection for Probability Mass Function Tensors [17.640500920466984]
本稿では,関節のPMFを推定し,そのランクを観測データから自動的に推定する新しい枠組みを提案する。
我々は、様々なモデルパラメータの後方分布を近似するために、変分推論(VI)に基づく決定論的解を導出し、さらに、変分推論(SVI)を利用して、VVIベースのアプローチのスケーラブルバージョンを開発する。
合成データと実映画レコメンデーションデータの両方を含む実験は、推定精度、自動ランク検出、計算効率の点で、VVIおよびSVIベースの手法の利点を示している。
論文 参考訳(メタデータ) (2024-10-08T20:07:49Z) - An incremental preference elicitation-based approach to learning potentially non-monotonic preferences in multi-criteria sorting [53.36437745983783]
まず最適化モデルを構築し,非単調な選好をモデル化する。
本稿では,情報量測定手法と質問選択戦略を考案し,各イテレーションにおいて最も情報に富む選択肢を特定する。
2つのインクリメンタルな選好に基づくアルゴリズムは、潜在的に単調な選好を学習するために開発された。
論文 参考訳(メタデータ) (2024-09-04T14:36:20Z) - Likelihood Ratio Confidence Sets for Sequential Decision Making [51.66638486226482]
確率に基づく推論の原理を再検討し、確率比を用いて妥当な信頼シーケンスを構築することを提案する。
本手法は, 精度の高い問題に特に適している。
提案手法は,オンライン凸最適化への接続に光を当てることにより,推定器の最適シーケンスを確実に選択する方法を示す。
論文 参考訳(メタデータ) (2023-11-08T00:10:21Z) - Variable Clustering via Distributionally Robust Nodewise Regression [7.289979396903827]
可変クラスタリングのための多要素ブロックモデルについて検討し、ノード単位回帰の分布的ロバストなバージョンを定式化することにより、正規化サブスペースクラスタリングに接続する。
我々は凸緩和を導出し、ロバスト領域のサイズを選択するためのガイダンスを与え、そのためデータに基づいて正規化重み付けパラメータを提案し、実装のためのADMMアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-15T16:23:25Z) - A parallelizable model-based approach for marginal and multivariate
clustering [0.0]
本稿では,モデルに基づくクラスタリングの頑健さを生かしたクラスタリング手法を提案する。
我々は、各マージンごとに異なる数のクラスタを持つことができる有限混合モデルを指定することで、この問題に対処する。
提案手法は、完全な(結合した)モデルベースのクラスタリング手法よりも、中程度から高次元の処理に適するだけでなく、計算的にも魅力的である。
論文 参考訳(メタデータ) (2022-12-07T23:54:41Z) - A One-shot Framework for Distributed Clustered Learning in Heterogeneous
Environments [54.172993875654015]
異種環境における分散学習のためのコミュニケーション効率化手法のファミリーを提案する。
ユーザによるローカル計算に基づくワンショットアプローチと、サーバにおけるクラスタリングベースのアグリゲーションステップは、強力な学習保証を提供する。
厳密な凸問題に対しては,ユーザ毎のデータ点数がしきい値を超える限り,提案手法はサンプルサイズの観点から順序最適平均二乗誤差率を達成する。
論文 参考訳(メタデータ) (2022-09-22T09:04:10Z) - Gradient Based Clustering [72.15857783681658]
本稿では,クラスタリングの品質を計測するコスト関数の勾配を用いて,距離に基づくクラスタリングの一般的な手法を提案する。
アプローチは反復的な2段階の手順(クラスタ割り当てとクラスタセンターのアップデートの代替)であり、幅広い機能に適用できる。
論文 参考訳(メタデータ) (2022-02-01T19:31:15Z) - Personalized Federated Learning via Convex Clustering [72.15857783681658]
本稿では,局所凸型ユーザコストを用いた個人化フェデレーション学習のためのアルゴリズム群を提案する。
提案するフレームワークは,異なるユーザのモデルの違いをペナル化する凸クラスタリングの一般化に基づいている。
論文 参考訳(メタデータ) (2022-02-01T19:25:31Z) - MINIMALIST: Mutual INformatIon Maximization for Amortized Likelihood
Inference from Sampled Trajectories [61.3299263929289]
シミュレーションベースの推論は、その可能性が実際に計算できない場合でもモデルのパラメータを学習することができる。
あるクラスのメソッドは、異なるパラメータでシミュレートされたデータを使用して、確率とエビデンス比の償却推定器を推定する。
モデルパラメータとシミュレーションデータ間の相互情報の観点から,本手法が定式化可能であることを示す。
論文 参考訳(メタデータ) (2021-06-03T12:59:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。