論文の概要: Kernel Correlation-Dissimilarity for Multiple Kernel k-Means Clustering
- arxiv url: http://arxiv.org/abs/2403.03448v1
- Date: Wed, 6 Mar 2024 04:24:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 16:13:53.047546
- Title: Kernel Correlation-Dissimilarity for Multiple Kernel k-Means Clustering
- Title(参考訳): マルチカーネルk平均クラスタリングにおけるカーネル相関の相違
- Authors: Rina Su, Yu Guo, Caiying Wu, Qiyu Jin, Tieyong Zeng
- Abstract要約: 現在の手法は情報多様性を高め、相関性や相似性に基づいて複数のカーネル間の相互依存を利用して冗長性を低減する。
本稿では,カーネルの相関と相似性の両方を体系的に統合する新しい手法を提案する。
カーネル相関と相違点のコヒーレンスを強調することにより,非線形情報抽出のためのより客観的かつ透明な戦略を提供する。
- 参考スコア(独自算出の注目度): 21.685153346752124
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The main objective of the Multiple Kernel k-Means (MKKM) algorithm is to
extract non-linear information and achieve optimal clustering by optimizing
base kernel matrices. Current methods enhance information diversity and reduce
redundancy by exploiting interdependencies among multiple kernels based on
correlations or dissimilarities. Nevertheless, relying solely on a single
metric, such as correlation or dissimilarity, to define kernel relationships
introduces bias and incomplete characterization. Consequently, this limitation
hinders efficient information extraction, ultimately compromising clustering
performance. To tackle this challenge, we introduce a novel method that
systematically integrates both kernel correlation and dissimilarity. Our
approach comprehensively captures kernel relationships, facilitating more
efficient classification information extraction and improving clustering
performance. By emphasizing the coherence between kernel correlation and
dissimilarity, our method offers a more objective and transparent strategy for
extracting non-linear information and significantly improving clustering
precision, supported by theoretical rationale. We assess the performance of our
algorithm on 13 challenging benchmark datasets, demonstrating its superiority
over contemporary state-of-the-art MKKM techniques.
- Abstract(参考訳): multiple kernel k-means (mkkm) アルゴリズムの主な目的は非線形情報抽出とベースカーネル行列の最適化による最適クラスタリングの実現である。
現在の手法は情報多様性を高め、相関性や相似性に基づいて複数のカーネル間の相互依存を利用して冗長性を低減する。
それにもかかわらず、相関や相似性のような単一の計量のみに依存してカーネルの関係を定義することはバイアスと不完全なキャラクタリゼーションをもたらす。
このため、この制限は効率的な情報抽出を妨げ、最終的にクラスタリング性能を損なう。
この課題に取り組むために,カーネル相関と異質性の両方を体系的に統合する新しい手法を提案する。
本手法は,カーネル関係を包括的に捉え,より効率的な分類情報抽出とクラスタリング性能の向上を実現する。
本手法は,カーネル相関と相似性とのコヒーレンスを強調し,非線形情報を抽出し,クラスタリング精度を大幅に向上するための,より客観的かつ透過的な戦略を提供する。
我々は,13の挑戦的ベンチマークデータセット上でのアルゴリズムの性能評価を行い,同時代のMKKM技術よりも優れていることを示す。
関連論文リスト
- Boosting the Performance of Decentralized Federated Learning via Catalyst Acceleration [66.43954501171292]
本稿では,Catalytics Accelerationを導入し,DFedCataと呼ばれる促進型分散フェデレート学習アルゴリズムを提案する。
DFedCataは、パラメータの不整合に対処するMoreauエンベロープ関数と、アグリゲーションフェーズを加速するNesterovの外挿ステップの2つの主要コンポーネントで構成されている。
実験により, CIFAR10/100における収束速度と一般化性能の両面において, 提案アルゴリズムの利点を実証した。
論文 参考訳(メタデータ) (2024-10-09T06:17:16Z) - Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Fast Asymmetric Factorization for Large Scale Multiple Kernel Clustering [5.21777096853979]
マルチカーネルクラスタリング(MKC)は、クラスタリングのための複数のベースカーネルからの情報の融合を可能にするソリューションとして登場した。
本稿では,局所回帰にインスパイアされた新しいスパースカーネル行列を構築し,メモリ効率を実現するための効率的な多重カーネル概念因子化(EMKCF)を提案する。
論文 参考訳(メタデータ) (2024-05-26T06:29:12Z) - Bridging Algorithmic Information Theory and Machine Learning: A New Approach to Kernel Learning [12.848057726330714]
我々は,スパースカーネルフローの手法を用いて,データからカーネルを学習する問題に対するAIIの視点を採用する。
このアプローチは、AITのツールを使用して機械学習のアルゴリズムを再構築する扉を開く。
論文 参考訳(メタデータ) (2023-11-21T14:18:28Z) - Linear Self-Attention Approximation via Trainable Feedforward Kernel [77.34726150561087]
高速な計算を追求する中で、効率的なトランスフォーマーは印象的な様々なアプローチを実証している。
我々は,トランスフォーマーアーキテクチャの自己保持機構を近似するために,トレーニング可能なカーネルメソッドのアイデアを拡張することを目指している。
論文 参考訳(メタデータ) (2022-11-08T08:14:11Z) - Rethinking Clustering-Based Pseudo-Labeling for Unsupervised
Meta-Learning [146.11600461034746]
教師なしメタラーニングのメソッドであるCACTUsは、擬似ラベル付きクラスタリングベースのアプローチである。
このアプローチはモデルに依存しないため、教師付きアルゴリズムと組み合わせてラベルのないデータから学習することができる。
このことの核となる理由は、埋め込み空間においてクラスタリングに優しい性質が欠如していることである。
論文 参考訳(メタデータ) (2022-09-27T19:04:36Z) - Recovery Guarantees for Kernel-based Clustering under Non-parametric
Mixture Models [26.847612684502998]
非パラメトリック混合モデルに基づくカーネルベースのクラスタリングアルゴリズムの統計的性能について検討する。
我々は、カーネルベースのデータクラスタリングとカーネル密度ベースのクラスタリングの間に重要な等価性を確立する。
論文 参考訳(メタデータ) (2021-10-18T17:23:54Z) - Kernel k-Means, By All Means: Algorithms and Strong Consistency [21.013169939337583]
Kernel $k$クラスタリングは、非線形データの教師なし学習のための強力なツールである。
本稿では,最適化された局所解に対処するための一般的な手法を応用した結果を一般化する。
我々のアルゴリズムは、この非線形分離問題をよりよく解くために、Magricalization-minimization (MM) を利用している。
論文 参考訳(メタデータ) (2020-11-12T16:07:18Z) - The Impact of Isolation Kernel on Agglomerative Hierarchical Clustering
Algorithms [12.363083467305787]
AHC(Agglomerative Hierarchical Clustering)は、一般的なクラスタリング手法の1つである。
距離測定に基づく既存のAHC法では, 密度の異なる隣接クラスタの同定が困難である。
我々は,データ依存カーネル(距離や既存のカーネルではなく)を使用することによって,それに対応する効果的な手段が提供されることを示した。
論文 参考訳(メタデータ) (2020-10-12T06:18:38Z) - Kernel learning approaches for summarising and combining posterior
similarity matrices [68.8204255655161]
我々は,ベイズクラスタリングモデルに対するMCMCアルゴリズムの出力を要約するための新しいアプローチを提案するために,後部類似性行列(PSM)の概念を構築した。
我々の研究の重要な貢献は、PSMが正の半定値であり、したがって確率的に動機付けられたカーネル行列を定義するのに使用できることである。
論文 参考訳(メタデータ) (2020-09-27T14:16:14Z) - SimpleMKKM: Simple Multiple Kernel K-means [49.500663154085586]
単純なマルチカーネルk-means(SimpleMKKM)と呼ばれる,単純で効果的なマルチカーネルクラスタリングアルゴリズムを提案する。
我々の基準は、カーネル係数とクラスタリング分割行列における難解な最小化最大化問題によって与えられる。
クラスタリング一般化誤差の観点から,SimpleMKKMの性能を理論的に解析する。
論文 参考訳(メタデータ) (2020-05-11T10:06:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。