論文の概要: A Hybrid Algorithm Based Robust Big Data Clustering for Solving
Unhealthy Initialization, Dynamic Centroid Selection and Empty clustering
Problems with Analysis
- arxiv url: http://arxiv.org/abs/2002.09380v1
- Date: Fri, 21 Feb 2020 16:09:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 00:35:13.096271
- Title: A Hybrid Algorithm Based Robust Big Data Clustering for Solving
Unhealthy Initialization, Dynamic Centroid Selection and Empty clustering
Problems with Analysis
- Title(参考訳): ハイブリッドアルゴリズムを用いたロバストなビッグデータクラスタリングによる不健全な初期化,動的セントロイド選択,空のクラスタリング問題の解法
- Authors: Y. A. Joarder (1) and Mosabbir Ahmed (2) ((1,2) Department of Computer
Science and Engineering, World University of Bangladesh (WUB), Dhaka,
Bangladesh)
- Abstract要約: クラスタリングアルゴリズムは、現代的なアプリケーションによって生成されるデータの量を分析する強力な学習ツールとして開発されている。
提案アルゴリズムEG K-MEANS : 拡張生成K-MEANSは主にK-MEANSの3つの問題を解く。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Big Data is a massive volume of both structured and unstructured data that is
too large and it also difficult to process using traditional techniques.
Clustering algorithms have developed as a powerful learning tool that can
exactly analyze the volume of data that produced by modern applications.
Clustering in data mining is the grouping of a particular set of objects based
on their characteristics. The main aim of clustering is to classified data into
clusters such that objects are grouped in the same clusters when they are
corresponding according to similarities and features mainly. Till now, K-MEANS
is the best utilized calculation connected in a wide scope of zones to
recognize gatherings where cluster separations are a lot than between gathering
separations. Our developed algorithm works with K-MEANS for high quality
clustering during clustering from big data. Our proposed algorithm EG K-MEANS :
Extended Generation K-MEANS solves mainly three issues of K-MEANS: unhealthy
initialization, dynamic centroid selection and empty clustering. It ensures the
best way of preventing unhealthy initialization, dynamic centroid selection and
empty clustering problems for getting high quality clustering.
- Abstract(参考訳): ビッグデータは構造化データと非構造化データの両方の膨大な量であり、大きすぎるし、従来の技術では処理が難しい。
クラスタリングアルゴリズムは、現代のアプリケーションによって生成されたデータ量を正確に分析できる強力な学習ツールとして開発された。
データマイニングにおけるクラスタリングは、その特性に基づいた特定のオブジェクト群のグループ化である。
クラスタリングの主な目的は、オブジェクトが主に類似性や特徴に応じて同じクラスタにグループ化されるように、データをクラスタに分類することである。
現在、K-MEANSは、クラスタ分離が集合分離の間よりも多い集合を認識するために、広範囲のゾーンで接続された最も有用な計算である。
開発したアルゴリズムはK-MEANSを用いて,ビッグデータからのクラスタリングにおいて高品質なクラスタリングを行う。
提案アルゴリズムEG K-MEANS : 拡張生成K-MEANSはK-MEANSの3つの問題を主に解決する。
高品質なクラスタリングを実現するために、不健全な初期化、ダイナミックなcentroid選択、空のクラスタリング問題を解決する最善の方法が確保される。
関連論文リスト
- Dynamically Weighted Federated k-Means [0.0]
フェデレートされたクラスタリングにより、複数のデータソースが協力してデータをクラスタリングし、分散化とプライバシ保護を維持できる。
我々は,ロイドのk-meansクラスタリング法に基づいて,動的に重み付けされたk-means (DWF k-means) という新しいクラスタリングアルゴリズムを提案する。
我々は、クラスタリングスコア、精度、およびv尺度の観点から、アルゴリズムの性能を評価するために、複数のデータセットとデータ分散設定の実験を行う。
論文 参考訳(メタデータ) (2023-10-23T12:28:21Z) - DivClust: Controlling Diversity in Deep Clustering [47.85350249697335]
DivClustはコンセンサスクラスタリングソリューションを生成し、単一クラスタリングベースラインを一貫して上回る。
提案手法は, フレームワークやデータセット間の多様性を, 計算コストを極めて小さく効果的に制御する。
論文 参考訳(メタデータ) (2023-04-03T14:45:43Z) - Hard Regularization to Prevent Deep Online Clustering Collapse without
Data Augmentation [65.268245109828]
オンラインディープクラスタリング(オンラインディープクラスタリング)とは、機能抽出ネットワークとクラスタリングモデルを組み合わせて、クラスタラベルを処理された各新しいデータポイントまたはバッチに割り当てることである。
オフラインメソッドよりも高速で汎用性が高いが、オンラインクラスタリングは、エンコーダがすべての入力を同じポイントにマッピングし、すべてを単一のクラスタに配置する、崩壊したソリューションに容易に到達することができる。
本稿では,データ拡張を必要としない手法を提案する。
論文 参考訳(メタデータ) (2023-03-29T08:23:26Z) - Deep Clustering: A Comprehensive Survey [53.387957674512585]
クラスタリング分析は、機械学習とデータマイニングにおいて必須の役割を果たす。
ディープ・クラスタリングは、ディープ・ニューラルネットワークを使ってクラスタリングフレンドリーな表現を学習することができるが、幅広いクラスタリングタスクに広く適用されている。
ディープクラスタリングに関する既存の調査は、主にシングルビューフィールドとネットワークアーキテクチャに焦点を当てており、クラスタリングの複雑なアプリケーションシナリオを無視している。
論文 参考訳(メタデータ) (2022-10-09T02:31:32Z) - Differentially-Private Clustering of Easy Instances [67.04951703461657]
異なるプライベートクラスタリングでは、個々のデータポイントに関する情報を公開せずに、$k$のクラスタセンターを特定することが目標だ。
我々は、データが"簡単"である場合にユーティリティを提供する実装可能な差分プライベートクラスタリングアルゴリズムを提供する。
我々は、非プライベートクラスタリングアルゴリズムを簡単なインスタンスに適用し、結果をプライベートに組み合わせることのできるフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-29T08:13:56Z) - Meta Clustering Learning for Large-scale Unsupervised Person
Re-identification [124.54749810371986]
メタクラスタリング学習(MCL)と呼ばれる「大規模タスクのための小さなデータ」パラダイムを提案する。
MCLは、第1フェーズのトレーニングのためにコンピューティングを節約するためにクラスタリングを介して、未ラベルデータのサブセットを擬似ラベル付けするのみである。
提案手法は計算コストを大幅に削減すると同時に,従来よりも優れた性能を実現している。
論文 参考訳(メタデータ) (2021-11-19T04:10:18Z) - Very Compact Clusters with Structural Regularization via Similarity and
Connectivity [3.779514860341336]
本稿では,汎用データセットのためのエンドツーエンドのディープクラスタリングアルゴリズムであるVery Compact Clusters (VCC)を提案する。
提案手法は,最先端のクラスタリング手法よりも優れたクラスタリング性能を実現する。
論文 参考訳(メタデータ) (2021-06-09T23:22:03Z) - A Deep Learning Object Detection Method for an Efficient Clusters
Initialization [6.365889364810239]
クラスタリングは、銀行顧客のプロファイリング、文書検索、画像セグメンテーション、Eコマースレコメンデーションエンジンなど、多くのアプリケーションで使用されている。
既存のクラスタリング技術には、初期化パラメータに対する安定性の信頼性という大きな制限がある。
本稿では,計算オーバーヘッドとリソースオーバーヘッドの少ない最適クラスタリングパラメータを提供するソリューションを提案する。
論文 参考訳(メタデータ) (2021-04-28T08:34:25Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - Probabilistic Partitive Partitioning (PPP) [0.0]
クラスタリングアルゴリズムは一般に2つの一般的な問題に直面している。
彼らは異なる初期条件で異なる設定に収束する。
クラスタの数は、事前に任意に決めなければならない。
論文 参考訳(メタデータ) (2020-03-09T19:18:35Z) - Supervised Enhanced Soft Subspace Clustering (SESSC) for TSK Fuzzy
Classifiers [25.32478253796209]
ファジィc平均クラスタリングアルゴリズムは,高木・スゲノカン(TSK)ファジィ分類器パラメータ推定によく用いられる。
本稿では,クラスタ内コンパクト性,クラスタ間分離,クラスタリングにおけるラベル情報とを同時に考慮した拡張ソフトサブスペースクラスタリング(SESSC)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-27T19:39:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。