論文の概要: Kernel K-means clustering of distributional data
- arxiv url: http://arxiv.org/abs/2509.18037v1
- Date: Mon, 22 Sep 2025 17:11:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.529645
- Title: Kernel K-means clustering of distributional data
- Title(参考訳): カーネルK平均分布データのクラスタリング
- Authors: Amparo Baíllo, Jose R. Berrendero, Martín Sánchez-Signorini,
- Abstract要約: 我々は、$mathbb Rp$上のランダム分布から確率分布のサンプルをクラスタリングする問題を考察する。
提案手法では, 対称な正定値カーネル$k$と, 対応する再生カーネルであるHilbert空間$mathcal H$を利用する。
各分布を対応するカーネルにマッピングすることで、$mathcal H$に埋め込み、このRKHSでサンプルを取得し、そこで$K$-meansクラスタリングを行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the problem of clustering a sample of probability distributions from a random distribution on $\mathbb R^p$. Our proposed partitioning method makes use of a symmetric, positive-definite kernel $k$ and its associated reproducing kernel Hilbert space (RKHS) $\mathcal H$. By mapping each distribution to its corresponding kernel mean embedding in $\mathcal H$, we obtain a sample in this RKHS where we carry out the $K$-means clustering procedure, which provides an unsupervised classification of the original sample. The procedure is simple and computationally feasible even for dimension $p>1$. The simulation studies provide insight into the choice of the kernel and its tuning parameter. The performance of the proposed clustering procedure is illustrated on a collection of Synthetic Aperture Radar (SAR) images.
- Abstract(参考訳): 我々は、$\mathbb R^p$上のランダム分布から確率分布のサンプルをクラスタリングする問題を考察する。
提案手法は,対称で正定値なカーネル$k$と,それに関連する再生カーネルHilbert空間(RKHS)$\mathcal H$を利用する。
各分布を対応するカーネルにマッピングすることで、$\mathcal H$ に埋め込み、この RKHS のサンプルを取得し、K$-means クラスタリング手順を実行し、元のサンプルを教師なしで分類する。
手順は単純で、次元が$p>1$であっても計算可能である。
シミュレーション研究は、カーネルの選択とそのチューニングパラメータに関する洞察を与える。
提案手法の性能を合成開口レーダ(SAR)画像の集合に示す。
関連論文リスト
- Near-Optimal Clustering in Mixture of Markov Chains [74.3828414695655]
我々は、長さ$H$の軌跡を、大きさ$S$の有限状態空間上の未知のエルゴードマルコフ鎖の1つによって生成される、$T$ trajectories of length $H$の問題を研究する。
我々は、連鎖の遷移核間の重み付きKL分散によって支配されるクラスタリングエラー率に基づいて、インスタンス依存で高い確率の低い境界を導出する。
次に,新しい2段階クラスタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-06-02T05:10:40Z) - Radius-Guided Post-Clustering for Shape-Aware, Scalable Refinement of k-Means Results [1.9580473532948401]
標準k平均の後、各クラスター中心は半径(割り当てられた点までの距離)が割り当てられ、半径が重なり合うクラスタがマージされる。
この後処理ステップは、k が k である限り、正確な k の要求を緩める。
この手法は意味のあるマージの上に非推定形状を再構成することができる。
論文 参考訳(メタデータ) (2025-04-28T22:30:53Z) - A Unified Framework for Center-based Clustering of Distributed Data [46.86543102499174]
我々は、ユーザのネットワーク上で動作する分散センターベースのクラスタリングアルゴリズムのファミリーを開発する。
私たちのフレームワークは、$K$-meansやHuber Losといった一般的なクラスタリング損失を含む、スムーズな凸損失関数の幅広いクラスを可能にします。
ブレグマン損失の特別の場合、固定点がロイド点の集合に収束することを示す。
論文 参考訳(メタデータ) (2024-02-02T10:44:42Z) - Wasserstein $K$-means for clustering probability distributions [16.153709556346417]
ユークリッド空間では、セントロイドと距離に基づくK$平均の定式化は同値である。
現代の機械学習アプリケーションでは、データは確率分布として発生し、測度値のデータを扱う自然な一般化は最適な輸送距離を使用する。
SDP緩和ワッサースタイン$K$-平均は、クラスターが2ドルワッサースタイン計量の下で十分に分離されているため、正確な回復を達成することができることを示す。
論文 参考訳(メタデータ) (2022-09-14T23:43:16Z) - Convergence and Recovery Guarantees of the K-Subspaces Method for
Subspace Clustering [33.1464583756714]
K-部分空間法(K-subspaces, KSS)は、K-means法を一般化した部分空間クラスタリング法である。
KSS法の初期割り当てが真のクラスタリングの近傍にある場合、超線型速度で収束することを示す。
論文 参考訳(メタデータ) (2022-06-11T15:47:21Z) - Optimal policy evaluation using kernel-based temporal difference methods [78.83926562536791]
カーネルヒルベルト空間を用いて、無限水平割引マルコフ報酬過程の値関数を推定する。
我々は、関連するカーネル演算子の固有値に明示的に依存した誤差の非漸近上界を導出する。
MRP のサブクラスに対する minimax の下位境界を証明する。
論文 参考訳(メタデータ) (2021-09-24T14:48:20Z) - Distribution free optimality intervals for clustering [1.7513645771137178]
データ$mathcalD$と、これらのデータのパーティション$mathcalC$を$K$クラスタにすると、得られたクラスタがデータに対して正しい、あるいは有意義なものであると言えますか?
本稿では,K-means歪みなどの損失関数に関して,クラスタリング$mathcalC$が有意義であると考えられるパラダイムを紹介した。
論文 参考訳(メタデータ) (2021-07-30T06:13:56Z) - A Note on Optimizing Distributions using Kernel Mean Embeddings [94.96262888797257]
カーネル平均埋め込みは、その無限次元平均埋め込みによる確率測度を表す。
カーネルが特徴的である場合、カーネルの総和密度を持つ分布は密度が高いことを示す。
有限サンプル設定でそのような分布を最適化するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-06-18T08:33:45Z) - Kernel learning approaches for summarising and combining posterior
similarity matrices [68.8204255655161]
我々は,ベイズクラスタリングモデルに対するMCMCアルゴリズムの出力を要約するための新しいアプローチを提案するために,後部類似性行列(PSM)の概念を構築した。
我々の研究の重要な貢献は、PSMが正の半定値であり、したがって確率的に動機付けられたカーネル行列を定義するのに使用できることである。
論文 参考訳(メタデータ) (2020-09-27T14:16:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。