論文の概要: Variable feature weighted fuzzy k-means algorithm for high dimensional data
- arxiv url: http://arxiv.org/abs/1912.11209v2
- Date: Thu, 13 Feb 2025 02:38:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-16 15:54:37.684828
- Title: Variable feature weighted fuzzy k-means algorithm for high dimensional data
- Title(参考訳): 高次元データに対する可変特徴重み付きファジィk平均アルゴリズム
- Authors: Vikas Singh, Nishchal K. Verma,
- Abstract要約: 現実世界のアプリケーションでは、クラスタに依存した機能はデータセットをより意味のあるクラスタに分割するのに役立ちます。
本稿では,2つの異なるエントロピー項を用いてファジィk平均の目的関数を変更することで,新しいファジィk平均クラスタリングアルゴリズムを提案する。
本手法は実世界および合成データセットにおける教師なしおよび教師なしのパフォーマンス測定を用いて検証する。
- 参考スコア(独自算出の注目度): 30.828627752648767
- License:
- Abstract: This paper presents a new fuzzy k-means algorithm for the clustering of high-dimensional data in various subspaces. Since high-dimensional data, some features might be irrelevant and relevant but may have different significance in the clustering process. For better clustering, it is crucial to incorporate the contribution of these features in the clustering process. To combine these features, in this paper, we have proposed a novel fuzzy k-means clustering algorithm by modifying the objective function of the fuzzy k-means using two different entropy terms. The first entropy term helps to minimize the within-cluster dispersion and maximize the negative entropy to determine clusters to contribute to the association of data points. The second entropy term helps control the weight of the features because different features have different contributing weights during the clustering to obtain a better partition. The proposed approach performance is presented in various clustering measures (AR, RI and NMI) on multiple datasets and compared with six other state-of-the-art methods. Impact Statement- In real-world applications, cluster-dependent feature weights help in partitioning the data set into more meaningful clusters. These features may be relevant, irrelevant, or redundant, but they each have different contributions during the clustering process. In this paper, a cluster-dependent feature weights approach is presented using fuzzy k-means to assign higher weights to relevant features and lower weights to irrelevant features during clustering. The method is validated using both supervised and unsupervised performance measures on real-world and synthetic datasets to demonstrate its effectiveness compared to state-of-the-art methods.
- Abstract(参考訳): 本稿では,様々な部分空間における高次元データのクラスタリングのためのファジィk平均アルゴリズムを提案する。
高次元データであるため、いくつかの特徴は無関係で関連があるかもしれないが、クラスタリングプロセスにおいて異なる意味を持つ可能性がある。
クラスタリングを改善するためには、これらの機能の貢献をクラスタリングプロセスに組み込むことが重要です。
これらの特徴を組み合わせるために,2つの異なるエントロピー項を用いてファジィk平均の目的関数を変更することで,ファジィk平均クラスタリングアルゴリズムを提案する。
最初のエントロピー項は、クラスタ内の分散を最小化し、負のエントロピーを最大化し、クラスタを決定してデータポイントの関連に寄与する。
第2のエントロピー項は、クラスタリング中に異なる特徴が寄与する重みを持ち、より良いパーティションを得るため、特徴の重みを制御するのに役立つ。
提案手法は,複数のデータセット上のクラスタリング尺度(AR, RI, NMI)で提案され,他の6つの最先端手法と比較される。
インパクトステートメント- 実世界のアプリケーションでは、クラスタに依存した機能はデータセットをより意味のあるクラスタに分割するのに役立ちます。
これらの機能は関連性、無関係性、冗長性があるかも知れませんが、それぞれがクラスタリングプロセスの間に異なるコントリビューションを持っています。
本稿では, ファジィk平均を用いて, クラスタリング中の無関係な特徴に対して, より高重みと低重みを割り当てるクラスタ依存的特徴量法を提案する。
本手法は実世界および合成データセットにおける教師なし性能測定と教師なし性能測定の両方を用いて,最先端手法と比較して有効性を示す。
関連論文リスト
- Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Fuzzy K-Means Clustering without Cluster Centroids [21.256564324236333]
ファジィK平均クラスタリングは教師なしデータ分析において重要な手法である。
本稿では,クラスタセントロイドへの依存を完全に排除する,ファジィテクストK-Meansクラスタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-04-07T12:25:03Z) - Rethinking k-means from manifold learning perspective [122.38667613245151]
平均推定なしで直接データのクラスタを検出する新しいクラスタリングアルゴリズムを提案する。
具体的には,バタワースフィルタを用いてデータ点間の距離行列を構成する。
異なる視点に埋め込まれた相補的な情報をうまく活用するために、テンソルのSchatten p-norm正規化を利用する。
論文 参考訳(メタデータ) (2023-05-12T03:01:41Z) - Multi-View Clustering via Semi-non-negative Tensor Factorization [120.87318230985653]
半負のテンソル因子分解(Semi-NTF)に基づく新しいマルチビュークラスタリングを開発する。
本モデルは、ビュー間の関係を直接考慮し、ビュー間の補完情報を利用する。
さらに,提案手法の最適化アルゴリズムを提案し,そのアルゴリズムが常に定常KKT点に収束することを数学的に証明する。
論文 参考訳(メタデータ) (2023-03-29T14:54:19Z) - A Clustering Method Based on Information Entropy Payload [0.0]
K平均のような既存のクラスタリングアルゴリズムは、しばしばKカテゴリの数などのパラメータをプリセットする必要がある。
本稿では,クラスタリング結果のクラスタが最大平均情報エントロピーを持つ情報理論に基づくクラスタリング手法を提案する。
論文 参考訳(メタデータ) (2022-09-13T09:56:05Z) - Fuzzy clustering algorithms with distance metric learning and entropy
regularization [0.0]
本稿では,ユークリッド,シティブロック,マハラノビス距離とエントロピー正規化に基づくファジィクラスタリングアルゴリズムを提案する。
合成および実データセットに関するいくつかの実験は、ノイズの多い画像テクスチャセグメンテーションへの応用を含む、これらの適応クラスタリング手法の有用性を実証している。
論文 参考訳(メタデータ) (2021-02-18T18:19:04Z) - Determinantal consensus clustering [77.34726150561087]
本稿では,クラスタリングアルゴリズムのランダム再起動における決定点プロセス (DPP) の利用を提案する。
DPPは部分集合内の中心点の多様性を好んでいる。
DPPとは対照的に、この手法は多様性の確保と、すべてのデータフェースについて良好なカバレッジを得るために失敗することを示す。
論文 参考訳(メタデータ) (2021-02-07T23:48:24Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - Stable and consistent density-based clustering via multiparameter
persistence [77.34726150561087]
トポロジカルデータ解析による次数-リップス構成について考察する。
我々は,入力データの摂動に対する安定性を,通信間距離を用いて解析する。
私たちはこれらのメソッドを、Persistableと呼ばれる密度ベースのクラスタリングのためのパイプラインに統合します。
論文 参考訳(メタデータ) (2020-05-18T19:45:04Z) - Point-Set Kernel Clustering [11.093960688450602]
本稿では,オブジェクトとオブジェクトの集合との類似性を計算する,ポイントセットカーネルと呼ばれる新しい類似度尺度を提案する。
新たなクラスタリング手法は,大規模データセットを扱えるように,効率的かつ効率的であることを示す。
論文 参考訳(メタデータ) (2020-02-14T00:00:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。