論文の概要: Inference with K-means
- arxiv url: http://arxiv.org/abs/2410.17256v1
- Date: Fri, 04 Oct 2024 06:51:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-27 05:40:34.485573
- Title: Inference with K-means
- Title(参考訳): K-meansによる推論
- Authors: Alfred K. Adzika, Prudence Djagba,
- Abstract要約: k-meansは、kセントロイドをランダムに割り当て、データポイントを最も近いセントロイドに割り当て、割り当てられたポイントの平均に基づいてセントロイドを更新する反復的クラスタリングアルゴリズムである。
オンライン平衡k平均手法を用いて,クラスタデータ分布から得られるデータポイントの最後の成分の予測について検討した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This thesis aims to invent new approaches for making inferences with the k-means algorithm. k-means is an iterative clustering algorithm that randomly assigns k centroids, then assigns data points to the nearest centroid, and updates centroids based on the mean of assigned points. This process continues until convergence, forming k clusters where each point belongs to the closest centroid. This research investigates the prediction of the last component of data points obtained from a distribution of clustered data using the online balanced k-means approach. Through extensive experimentation and analysis, key findings have emerged. It is observed that a larger number of clusters or partitions tends to yield lower errors while increasing the number of assigned data points does not significantly improve inference errors. Reducing losses in the learning process does not significantly impact overall inference errors. Indicating that as learning is going on inference errors remain unchanged. Recommendations include the need for specialized inference techniques to estimate better data points derived from multi-clustered data and exploring methods that yield improved results with larger assigned datasets. By addressing these recommendations, this research advances the accuracy and reliability of inferences made with the k-means algorithm, bridging the gap between clustering and non-parametric density estimation and inference.
- Abstract(参考訳): この論文は、k-meansアルゴリズムで推論を行う新しいアプローチを考案することを目的としている。
k-meansは、kセントロイドをランダムに割り当て、データポイントを最も近いセントロイドに割り当て、割り当てられたポイントの平均に基づいてセントロイドを更新する反復的クラスタリングアルゴリズムである。
この過程は収束まで続き、各点が最も近いセントロイドに属する k 個のクラスターを形成する。
本研究は,オンラインバランスの取れたk-means手法を用いて,クラスタ化されたデータの分布から得られるデータの最後の成分の予測について検討する。
広範な実験と分析を通じて、重要な発見が生まれている。
クラスタやパーティションの数がより多いと、低いエラーが発生する傾向にある一方で、割り当てられたデータポイントの数が増えると、推論エラーが著しく改善されないことが観察された。
学習プロセスにおける損失を減らすことは、全体的な推論エラーに大きく影響しない。
学習が進むにつれて、推論エラーは変わらない。
推奨事項には、マルチクラスタデータから得られるより良いデータポイントを推定する特別な推論技術の必要性や、より大きなアサインされたデータセットで改善結果を得る方法などが含まれる。
これらのレコメンデーションに対処することにより,k平均アルゴリズムによる推論の精度と信頼性を向上し,クラスタリングと非パラメトリック密度推定と推論のギャップを埋める。
関連論文リスト
- K-Means Clustering With Incomplete Data with the Use of Mahalanobis Distances [0.0]
我々は従来のユークリッド距離の代わりにマハラノビス距離を組み込む統一K平均アルゴリズムを開発した。
我々のアルゴリズムはスタンドアローンの計算とK平均の両方を一貫して上回ることを示す。
これらの結果は、IRISデータセットと楕円型クラスタでランダムに生成されたデータの両方にわたって保持される。
論文 参考訳(メタデータ) (2024-10-31T00:05:09Z) - Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Fuzzy K-Means Clustering without Cluster Centroids [21.256564324236333]
ファジィK平均クラスタリングは教師なしデータ分析において重要な手法である。
本稿では,クラスタセントロイドへの依存を完全に排除する,ファジィテクストK-Meansクラスタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-04-07T12:25:03Z) - A Weighted K-Center Algorithm for Data Subset Selection [70.49696246526199]
サブセット選択は、トレーニングデータの小さな部分を特定する上で重要な役割を果たす、基本的な問題である。
我々は,k中心および不確かさサンプリング目的関数の重み付け和に基づいて,サブセットを計算する新しい係数3近似アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-12-17T04:41:07Z) - Federated K-means Clustering [0.0]
フェデレートラーニング(Federated Learning)は、データをプールすることなく、機械学習目的で分散データセットを使用することを可能にする技術である。
この研究は、K平均クラスタリングを連合的に実装するアルゴリズムを導入する。
論文 参考訳(メタデータ) (2023-10-02T13:32:00Z) - Rethinking k-means from manifold learning perspective [122.38667613245151]
平均推定なしで直接データのクラスタを検出する新しいクラスタリングアルゴリズムを提案する。
具体的には,バタワースフィルタを用いてデータ点間の距離行列を構成する。
異なる視点に埋め込まれた相補的な情報をうまく活用するために、テンソルのSchatten p-norm正規化を利用する。
論文 参考訳(メタデータ) (2023-05-12T03:01:41Z) - Sketch-and-solve approaches to k-means clustering by semidefinite
programming [14.930208990741132]
我々は,k-meansクラスタリングのPeng-Wei半定緩和を高速化するためのスケッチ・アンド・ソルジ手法を提案する。
データが適切に分離された場合、k平均の最適なクラスタリングを特定する。
そうでなければ、我々のアプローチは最適k-平均値に高信頼な下界を与える。
論文 参考訳(メタデータ) (2022-11-28T19:51:30Z) - Riemannian classification of EEG signals with missing values [67.90148548467762]
本稿では脳波の分類に欠落したデータを扱うための2つの方法を提案する。
第1のアプローチでは、インプットされたデータと$k$-nearestの隣人アルゴリズムとの共分散を推定し、第2のアプローチでは、期待最大化アルゴリズム内で観測データの可能性を活用することにより、観測データに依存する。
その結果, 提案手法は観測データに基づく分類よりも優れており, 欠落したデータ比が増大しても高い精度を維持することができることがわかった。
論文 参考訳(メタデータ) (2021-10-19T14:24:50Z) - Determinantal consensus clustering [77.34726150561087]
本稿では,クラスタリングアルゴリズムのランダム再起動における決定点プロセス (DPP) の利用を提案する。
DPPは部分集合内の中心点の多様性を好んでいる。
DPPとは対照的に、この手法は多様性の確保と、すべてのデータフェースについて良好なカバレッジを得るために失敗することを示す。
論文 参考訳(メタデータ) (2021-02-07T23:48:24Z) - Decorrelated Clustering with Data Selection Bias [55.91842043124102]
本稿では,データ選択バイアスを伴うクラスタリングのためのデコリレーション正規化K-Meansアルゴリズム(DCKM)を提案する。
DCKMアルゴリズムは,選択バイアスによって生じる予期せぬ特徴相関を除去する必要があることを示す。
論文 参考訳(メタデータ) (2020-06-29T08:55:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。