論文の概要: Adaptive Explicit Kernel Minkowski Weighted K-means
- arxiv url: http://arxiv.org/abs/2012.02805v1
- Date: Fri, 4 Dec 2020 19:14:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-23 00:04:14.721111
- Title: Adaptive Explicit Kernel Minkowski Weighted K-means
- Title(参考訳): Adaptive Explicit Kernel Minkowski Weighted K-means
- Authors: Amir Aradnia, Maryam Amir Haeri and Mohammad Mehdi Ebadzadeh
- Abstract要約: カーネル K-平均は、K-平均をカーネル空間に拡張し、非線形構造を捉えることができ、任意の形状のクラスターを識別することができる。
本稿では, 線形および非線形アプローチの利点を, 駆動された対応する有限次元特徴写像を用いて組み合わせる手法を提案する。
- 参考スコア(独自算出の注目度): 1.3535770763481905
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The K-means algorithm is among the most commonly used data clustering
methods. However, the regular K-means can only be applied in the input space
and it is applicable when clusters are linearly separable. The kernel K-means,
which extends K-means into the kernel space, is able to capture nonlinear
structures and identify arbitrarily shaped clusters. However, kernel methods
often operate on the kernel matrix of the data, which scale poorly with the
size of the matrix or suffer from the high clustering cost due to the
repetitive calculations of kernel values. Another issue is that algorithms
access the data only through evaluations of $K(x_i, x_j)$, which limits many
processes that can be done on data through the clustering task. This paper
proposes a method to combine the advantages of the linear and nonlinear
approaches by using driven corresponding approximate finite-dimensional feature
maps based on spectral analysis. Applying approximate finite-dimensional
feature maps were only discussed in the Support Vector Machines (SVM) problems
before. We suggest using this method in kernel K-means era as alleviates
storing huge kernel matrix in memory, further calculating cluster centers more
efficiently and access the data explicitly in feature space. These explicit
feature maps enable us to access the data in the feature space explicitly and
take advantage of K-means extensions in that space. We demonstrate our Explicit
Kernel Minkowski Weighted K-mean (Explicit KMWK-mean) method is able to be more
adopted and find best-fitting values in new space by applying additional
Minkowski exponent and feature weights parameter. Moreover, it can reduce the
impact of concentration on nearest neighbour search by suggesting investigate
among other norms instead of Euclidean norm, includes Minkowski norms and
fractional norms (as an extension of the Minkowski norms with p<1).
- Abstract(参考訳): k-meansアルゴリズムは最も一般的なデータクラスタリング手法の一つである。
しかし、正則 k-平均は入力空間にしか適用できず、クラスタが線形分離可能である場合にも適用できる。
k-平均を核空間に拡張するk-平均は、非線形構造をキャプチャし、任意の形状のクラスターを識別することができる。
しかし、カーネルメソッドは、しばしばデータのカーネルマトリックス上で動作し、行列のサイズに悪影響を及ぼすか、カーネル値の繰り返し計算によって高いクラスタリングコストに悩まされる。
もうひとつの問題は、アルゴリズムが$k(x_i, x_j)$の評価によってのみデータにアクセスすることだ。
本稿では, スペクトル解析に基づく近似有限次元特徴写像を駆動することにより, 線形および非線形アプローチの利点を組み合わせる手法を提案する。
近似有限次元特徴写像の適用は, サポートベクターマシン(svm)問題でのみ議論された。
この手法をカーネルk-means時代において,巨大なカーネルマトリックスのメモリ保存を緩和し,クラスタ中心をより効率的に計算し,特徴空間で明示的にデータにアクセスすることを提案する。
これらの明示的な特徴マップは、特徴空間内のデータに明示的にアクセスし、その空間のk-means拡張を利用することができます。
KMWK-mean(Explicit Kernel Minkowski Weighted K-mean)法は,ミンコフスキー指数と特徴量パラメータを付加することにより,新しい空間の最適値を求めることができることを示す。
さらに、ユークリッドノルムではなく、ミンコフスキーノルムと分数ノルム(p<1)によるミンコフスキーノルムの拡張として)を含む他のノルムの調査を提案することにより、近隣探索に対する濃度の影響を低減できる。
関連論文リスト
- Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Robust Kernel Sparse Subspace Clustering [0.0]
本稿では,カーネルスパースSC (RKSSC) アルゴリズムを初めて提案する。
この概念は、原則として他のSCアルゴリズムにも適用でき、この種の汚職の存在に対して堅牢性を達成することができる。
論文 参考訳(メタデータ) (2024-01-30T14:12:39Z) - Linear time Evidence Accumulation Clustering with KMeans [0.0]
この研究は、平均的なリンククラスタリングの振る舞いを模倣するトリックを記述する。
分割の密度を効率よく計算する方法を見つけ、二次的な複雑さから線形的な複雑さへのコストを削減した。
k平均結果は、計算コストを低く保ちながら、NMIの観点からは、最先端の技術に匹敵する。
論文 参考訳(メタデータ) (2023-11-15T14:12:59Z) - Rethinking k-means from manifold learning perspective [122.38667613245151]
平均推定なしで直接データのクラスタを検出する新しいクラスタリングアルゴリズムを提案する。
具体的には,バタワースフィルタを用いてデータ点間の距離行列を構成する。
異なる視点に埋め込まれた相補的な情報をうまく活用するために、テンソルのSchatten p-norm正規化を利用する。
論文 参考訳(メタデータ) (2023-05-12T03:01:41Z) - Local Sample-weighted Multiple Kernel Clustering with Consensus
Discriminative Graph [73.68184322526338]
マルチカーネルクラスタリング(MKC)は、ベースカーネルの集合から最適な情報融合を実現するためにコミットされる。
本稿では,新しい局所サンプル重み付きマルチカーネルクラスタリングモデルを提案する。
実験により, LSWMKCはより優れた局所多様体表現を有し, 既存のカーネルやグラフベースのクラスタリングアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2022-07-05T05:00:38Z) - K-Splits: Improved K-Means Clustering Algorithm to Automatically Detect
the Number of Clusters [0.12313056815753944]
本稿では,k-meansに基づく改良された階層型アルゴリズムであるk-splitsを紹介する。
提案手法の主な利点は,精度と速度である。
論文 参考訳(メタデータ) (2021-10-09T23:02:57Z) - A Note on Optimizing Distributions using Kernel Mean Embeddings [94.96262888797257]
カーネル平均埋め込みは、その無限次元平均埋め込みによる確率測度を表す。
カーネルが特徴的である場合、カーネルの総和密度を持つ分布は密度が高いことを示す。
有限サンプル設定でそのような分布を最適化するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-06-18T08:33:45Z) - SimpleMKKM: Simple Multiple Kernel K-means [49.500663154085586]
単純なマルチカーネルk-means(SimpleMKKM)と呼ばれる,単純で効果的なマルチカーネルクラスタリングアルゴリズムを提案する。
我々の基準は、カーネル係数とクラスタリング分割行列における難解な最小化最大化問題によって与えられる。
クラスタリング一般化誤差の観点から,SimpleMKKMの性能を理論的に解析する。
論文 参考訳(メタデータ) (2020-05-11T10:06:40Z) - Ball k-means [53.89505717006118]
Ball k-meansアルゴリズムは、ポイントセントロイド距離計算の削減に集中して、クラスタを記述するためにボールを使用する。
高速、余分なパラメータなし、単純設計のボールk平均アルゴリズムは、素早いk平均アルゴリズムを全面的に置き換える。
論文 参考訳(メタデータ) (2020-05-02T10:39:26Z) - Fast Kernel k-means Clustering Using Incomplete Cholesky Factorization [11.631064399465089]
カーネルベースのクラスタリングアルゴリズムは、データセット内の非線形構造を特定し、キャプチャすることができる。
線形クラスタリングよりも優れたパフォーマンスを実現することができる。
カーネルマトリックス全体の計算と保存は非常に大きなメモリを占有しているため、カーネルベースのクラスタリングが大規模なデータセットを扱うことは困難である。
論文 参考訳(メタデータ) (2020-02-07T15:32:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。