論文の概要: Transformers can do Bayesian Clustering
- arxiv url: http://arxiv.org/abs/2510.24318v1
- Date: Tue, 28 Oct 2025 11:36:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:37.093448
- Title: Transformers can do Bayesian Clustering
- Title(参考訳): トランスフォーマーはBayesian Clusteringを実行できる
- Authors: Prajit Bhaskaran, Tom Viering,
- Abstract要約: 本稿では、事前データフィットネットワーク(PFN)を教師なしベイズクラスタリングに拡張するトランスフォーマーベースモデルであるCluster-PFNを提案する。
有限ガウス混合モデル(GMM)から生成された合成データセットに完全に訓練されたクラスタ-PFNは、クラスタの数とクラスタ割り当ての両方にわたる後部分布を推定することを学ぶ。
クラスタ-PFNは、欠落したデータ、現実世界のゲノムデータセットにおける命令ベースのベースラインよりも優れたパフォーマンス、高い欠落率を含む複雑なプリエントに基づいてトレーニングすることができる。
- 参考スコア(独自算出の注目度): 0.2578242050187029
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bayesian clustering accounts for uncertainty but is computationally demanding at scale. Furthermore, real-world datasets often contain missing values, and simple imputation ignores the associated uncertainty, resulting in suboptimal results. We present Cluster-PFN, a Transformer-based model that extends Prior-Data Fitted Networks (PFNs) to unsupervised Bayesian clustering. Trained entirely on synthetic datasets generated from a finite Gaussian Mixture Model (GMM) prior, Cluster-PFN learns to estimate the posterior distribution over both the number of clusters and the cluster assignments. Our method estimates the number of clusters more accurately than handcrafted model selection procedures such as AIC, BIC and Variational Inference (VI), and achieves clustering quality competitive with VI while being orders of magnitude faster. Cluster-PFN can be trained on complex priors that include missing data, outperforming imputation-based baselines on real-world genomic datasets, at high missingness. These results show that the Cluster-PFN can provide scalable and flexible Bayesian clustering.
- Abstract(参考訳): ベイジアンクラスタリングは不確実性の原因であるが、大規模に計算的に要求されている。
さらに、実世界のデータセットは、しばしば欠落した値を含み、単純な計算は関連する不確実性を無視し、結果として準最適結果をもたらす。
本稿では、事前データフィットネットワーク(PFN)を教師なしベイズクラスタリングに拡張するトランスフォーマーベースモデルであるCluster-PFNを提案する。
有限ガウス混合モデル(GMM)から生成された合成データセットで完全に訓練されたCluster-PFNは、クラスタ数とクラスタ割り当ての両方にわたる後続分布を推定することを学ぶ。
AIC, BIC, 変分推論 (VI) などの手作りモデル選択手順よりも精度の高いクラスタ数を推定し, 桁数を大幅に高速化しながら, VIと競合するクラスタリング品質を実現する。
クラスタ-PFNは、欠落したデータ、現実世界のゲノムデータセットにおける命令ベースのベースラインよりも優れたパフォーマンス、高い欠落率を含む複雑なプリエントに基づいてトレーニングすることができる。
これらの結果は、Cluster-PFNがスケーラブルで柔軟なベイズクラスタリングを提供できることを示している。
関連論文リスト
- Clustering by Attention: Leveraging Prior Fitted Transformers for Data Partitioning [3.4530027457862005]
メタラーニングに基づく新しいクラスタリング手法を提案する。
我々は,クラスタリングを行うために事前学習したPFN(Predior-Data Fitted Transformer Network)を用いている。
我々の手法は最先端のクラスタリング技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-07-27T17:53:19Z) - CLoVE: Personalized Federated Learning through Clustering of Loss Vector Embeddings [1.966764032092535]
クラスタ化フェデレーション学習(CFL)のための新しいアルゴリズムであるCLoVEを提案する。
CLoVEは、クライアントデータに対するモデル損失に由来するクライアントの埋め込みを利用し、同じクラスタ内のクライアントが同様の損失値を共有するという洞察を活用する。
CLoVEは、異なるクラスタからクライアントを反復的に識別し、分離し、クラスタ固有のモデルを最適化することができる。
論文 参考訳(メタデータ) (2025-06-27T17:52:16Z) - Towards Learnable Anchor for Deep Multi-View Clustering [49.767879678193005]
本稿では,線形時間でクラスタリングを行うDeep Multi-view Anchor Clustering (DMAC)モデルを提案する。
最適なアンカーを用いて、全サンプルグラフを計算し、クラスタリングのための識別的埋め込みを導出する。
いくつかのデータセットの実験では、最先端の競合に比べてDMACの性能と効率が優れていることが示されている。
論文 参考訳(メタデータ) (2025-03-16T09:38:11Z) - Consistent Amortized Clustering via Generative Flow Networks [6.9158153233702935]
本稿では,アモータイズクラスタリングのための新しいフレームワークであるGFNCPを紹介する。
GFNCPは、政策と報酬の共有エネルギーベースのパラメトリゼーションを備えた生成フローネットワークとして定式化されている。
流れの一致条件は, 境界条件下でのクラスタリング後部の整合性に等しいことを示す。
論文 参考訳(メタデータ) (2025-02-26T17:30:52Z) - Interaction-Aware Gaussian Weighting for Clustered Federated Learning [58.92159838586751]
フェデレートラーニング(FL)は、プライバシを維持しながらモデルをトレーニングするための分散パラダイムとして登場した。
本稿では,新たなクラスタリングFL法であるFedGWC(Federated Gaussian Weighting Clustering)を提案する。
ベンチマークデータセットを用いた実験により,FedGWCはクラスタの品質と分類精度において,既存のFLアルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-02-05T16:33:36Z) - UniForCE: The Unimodality Forest Method for Clustering and Estimation of
the Number of Clusters [2.4953699842881605]
我々は,一様性の概念に着目し,局所的一様性クラスタと呼ばれる柔軟なクラスタ定義を提案する。
局所的ユニモーダルクラスタは、データのサブクラスタのペア間で一様性が局所的に保存される限り、拡張される。
局所的な単調クラスタリングのためのUniForCE法を提案する。
論文 参考訳(メタデータ) (2023-12-18T16:19:02Z) - Revisiting Instance-Optimal Cluster Recovery in the Labeled Stochastic Block Model [85.51611950757643]
IAC (Instance-Adaptive Clustering, インスタンス適応クラスタリング) を提案する。
IACは$ MathcalO(n, textpolylog(n) $の計算複雑性を維持しており、大規模問題に対してスケーラブルで実用的なものである。
論文 参考訳(メタデータ) (2023-06-18T08:46:06Z) - DeepCluE: Enhanced Image Clustering via Multi-layer Ensembles in Deep
Neural Networks [53.88811980967342]
本稿では,Ensembles (DeepCluE) を用いたDeep Clusteringを提案する。
ディープニューラルネットワークにおける複数のレイヤのパワーを活用することで、ディープクラスタリングとアンサンブルクラスタリングのギャップを埋める。
6つの画像データセットの実験結果から、最先端のディープクラスタリングアプローチに対するDeepCluEの利点が確認されている。
論文 参考訳(メタデータ) (2022-06-01T09:51:38Z) - Neural Mixture Models with Expectation-Maximization for End-to-end Deep
Clustering [0.8543753708890495]
本稿では,ニューラルネットワークを用いた混合モデルに基づくクラスタリングを実現する。
我々は,Eステップとして前方パス,Mステップとして後方パスを動作させるバッチワイズEMイテレーションにより,ネットワークのエンドツーエンドをトレーニングする。
トレーニングされたネットワークは、k-meansに依存した単一ステージのディープクラスタリング手法よりも優れています。
論文 参考訳(メタデータ) (2021-07-06T08:00:58Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。