論文の概要: Too Much Information Kills Information: A Clustering Perspective
- arxiv url: http://arxiv.org/abs/2009.07417v1
- Date: Wed, 16 Sep 2020 01:54:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 23:11:10.384893
- Title: Too Much Information Kills Information: A Clustering Perspective
- Title(参考訳): 情報が多すぎると情報がなくなる:クラスタリングの視点
- Authors: Yicheng Xu, Vincent Chau, Chenchen Wu, Yong Zhang, Vassilis
Zissimopoulos, Yifei Zou
- Abstract要約: 分散に基づくk-クラスタリングタスクに対して,k-平均クラスタリング(k-means clustering)が広く知られていることを含む,単純かつ斬新なアプローチを提案する。
提案手法は、与えられたデータセットからサンプリングサブセットを選択し、サブセット内のデータ情報のみに基づいて決定する。
ある仮定では、結果のクラスタリングは、高い確率で分散に基づく目的の最適度を推定するのに十分である。
- 参考スコア(独自算出の注目度): 6.375668163098171
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Clustering is one of the most fundamental tools in the artificial
intelligence area, particularly in the pattern recognition and learning theory.
In this paper, we propose a simple, but novel approach for variance-based
k-clustering tasks, included in which is the widely known k-means clustering.
The proposed approach picks a sampling subset from the given dataset and makes
decisions based on the data information in the subset only. With certain
assumptions, the resulting clustering is provably good to estimate the optimum
of the variance-based objective with high probability. Extensive experiments on
synthetic datasets and real-world datasets show that to obtain competitive
results compared with k-means method (Llyod 1982) and k-means++ method (Arthur
and Vassilvitskii 2007), we only need 7% information of the dataset. If we have
up to 15% information of the dataset, then our algorithm outperforms both the
k-means method and k-means++ method in at least 80% of the clustering tasks, in
terms of the quality of clustering. Also, an extended algorithm based on the
same idea guarantees a balanced k-clustering result.
- Abstract(参考訳): クラスタリングは人工知能分野、特にパターン認識と学習理論における最も基本的なツールの1つである。
本稿では,k-meansクラスタリングが広く知られている分散に基づくk-clusteringタスクに対する,単純だが斬新なアプローチを提案する。
提案手法は、与えられたデータセットからサンプリングサブセットを選択し、サブセット内のデータ情報のみに基づいて決定する。
ある仮定では、結果のクラスタリングは、高い確率で分散に基づく目的の最適度を推定するのに十分である。
合成データセットと実世界のデータセットに関する大規模な実験により、k-means法(Llyod 1982)やk-means++法(Arthur and Vassilvitskii 2007)と比較すると、データセットの7%の情報しか必要としないことがわかった。
データセットの最大15%の情報がある場合、クラスタリングの品質の観点から、我々のアルゴリズムはクラスタリングタスクの少なくとも80%において、k-meansメソッドとk-means++メソッドの両方より優れている。
また、同じアイデアに基づく拡張アルゴリズムにより、バランスの取れたkクラスタリング結果が保証される。
関連論文リスト
- Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - A Weighted K-Center Algorithm for Data Subset Selection [70.49696246526199]
サブセット選択は、トレーニングデータの小さな部分を特定する上で重要な役割を果たす、基本的な問題である。
我々は,k中心および不確かさサンプリング目的関数の重み付け和に基づいて,サブセットを計算する新しい係数3近似アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-12-17T04:41:07Z) - Rethinking k-means from manifold learning perspective [122.38667613245151]
平均推定なしで直接データのクラスタを検出する新しいクラスタリングアルゴリズムを提案する。
具体的には,バタワースフィルタを用いてデータ点間の距離行列を構成する。
異なる視点に埋め込まれた相補的な情報をうまく活用するために、テンソルのSchatten p-norm正規化を利用する。
論文 参考訳(メタデータ) (2023-05-12T03:01:41Z) - Influence of Swarm Intelligence in Data Clustering Mechanisms [0.0]
自然にインスパイアされたSwarmベースのアルゴリズムは、データの欠如と一貫性のない大規模なデータセットに対処するために、データクラスタリングに使用される。
本稿では、これらの新しいアプローチの性能を概観し、問題のある状況に最適な方法の比較を行う。
論文 参考訳(メタデータ) (2023-05-07T08:40:50Z) - A One-shot Framework for Distributed Clustered Learning in Heterogeneous
Environments [54.172993875654015]
異種環境における分散学習のためのコミュニケーション効率化手法のファミリーを提案する。
ユーザによるローカル計算に基づくワンショットアプローチと、サーバにおけるクラスタリングベースのアグリゲーションステップは、強力な学習保証を提供する。
厳密な凸問題に対しては,ユーザ毎のデータ点数がしきい値を超える限り,提案手法はサンプルサイズの観点から順序最適平均二乗誤差率を達成する。
論文 参考訳(メタデータ) (2022-09-22T09:04:10Z) - How to Use K-means for Big Data Clustering? [2.1165011830664677]
K-meansはEuclidean Minimum Sum-of-Squares Clustering (MSSC)モデルの下で最もシンプルで広く使われているアルゴリズムである。
ビッグデータクラスタリングにK-means++アルゴリズムとK-means++アルゴリズムを用いる並列方式を提案する。
論文 参考訳(メタデータ) (2022-04-14T08:18:01Z) - A sampling-based approach for efficient clustering in large datasets [0.8952229340927184]
本稿では,多数のクラスタを持つ高次元データに対して,簡便かつ効率的なクラスタリング手法を提案する。
私たちのコントリビューションは、データポイントとクラスタの完全な比較を必要としないため、k-meansよりもはるかに効率的です。
論文 参考訳(メタデータ) (2021-12-29T19:15:20Z) - Differentially-Private Clustering of Easy Instances [67.04951703461657]
異なるプライベートクラスタリングでは、個々のデータポイントに関する情報を公開せずに、$k$のクラスタセンターを特定することが目標だ。
我々は、データが"簡単"である場合にユーティリティを提供する実装可能な差分プライベートクラスタリングアルゴリズムを提供する。
我々は、非プライベートクラスタリングアルゴリズムを簡単なインスタンスに適用し、結果をプライベートに組み合わせることのできるフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-29T08:13:56Z) - Robust Trimmed k-means [70.88503833248159]
本稿では,外乱点とクラスタポイントを同時に識別するRobust Trimmed k-means (RTKM)を提案する。
RTKMは他の方法と競合することを示す。
論文 参考訳(メタデータ) (2021-08-16T15:49:40Z) - A Multi-disciplinary Ensemble Algorithm for Clustering Heterogeneous
Datasets [0.76146285961466]
本稿では,社会階級ランキングとメタヒューリスティックアルゴリズムに基づく進化的クラスタリングアルゴリズム(ECAStar)を提案する。
ECAStarは、再共生進化演算子、レヴィ飛行最適化、いくつかの統計技術と統合されている。
従来の5つのアプローチに対してECAStarを評価する実験を行った。
論文 参考訳(メタデータ) (2021-01-01T07:20:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。