論文の概要: Multiple Kernel Clustering via Local Regression Integration
- arxiv url: http://arxiv.org/abs/2410.15304v1
- Date: Sun, 20 Oct 2024 06:26:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:17:33.840533
- Title: Multiple Kernel Clustering via Local Regression Integration
- Title(参考訳): 局所回帰統合によるマルチカーネルクラスタリング
- Authors: Liang Du, Xin Ren, Haiying Zhang, Peng Zhou,
- Abstract要約: 複数のカーネルメソッドは、複数のカーネルデータの固有の多様体構造をあまり考慮しない。
本稿ではまず,カーネル型局所回帰(CKLR)を用いたクラスタリング手法を提案する。
次に、マルチカーネルローカルレグレッション(CMKLR)を介してクラスタリングを行うように拡張する。
- 参考スコア(独自算出の注目度): 4.856913393644719
- License:
- Abstract: Multiple kernel methods less consider the intrinsic manifold structure of multiple kernel data and estimate the consensus kernel matrix with quadratic number of variables, which makes it vulnerable to the noise and outliers within multiple candidate kernels. This paper first presents the clustering method via kernelized local regression (CKLR). It captures the local structure of kernel data and employs kernel regression on the local region to predict the clustering results. Moreover, this paper further extends it to perform clustering via the multiple kernel local regression (CMKLR). We construct the kernel level local regression sparse coefficient matrix for each candidate kernel, which well characterizes the kernel level manifold structure. We then aggregate all the kernel level local regression coefficients via linear weights and generate the consensus sparse local regression coefficient, which largely reduces the number of candidate variables and becomes more robust against noises and outliers within multiple kernel data. Thus, the proposed method CMKLR avoids the above two limitations. It only contains one additional hyperparameter for tuning. Extensive experimental results show that the clustering performance of the proposed method on benchmark datasets is better than that of 10 state-of-the-art multiple kernel clustering methods.
- Abstract(参考訳): 複数のカーネル法は、複数のカーネルデータの固有多様体構造を考慮しにくくし、コンセンサスカーネル行列を変数の2次数で推定する。
本稿ではまず,カーネル型局所回帰(CKLR)を用いたクラスタリング手法を提案する。
カーネルデータのローカル構造をキャプチャし、クラスタリング結果を予測するためにローカル領域にカーネルレグレッションを使用する。
さらに,マルチカーネル局所回帰(CMKLR)を用いてクラスタリングを行うように拡張する。
カーネルレベルの局所回帰スパース係数行列を各候補カーネルに対して構築し、カーネルレベルの多様体構造を適切に特徴づける。
次に、線形重みによる全てのカーネルレベルの局所回帰係数を集約し、コンセンサススパース局所回帰係数を生成する。
このようにして、CMKLRは上記の2つの制限を回避できる。
チューニング用のハイパーパラメータが1つ追加されているだけです。
大規模な実験結果から,提案手法のクラスタリング性能は,最先端のマルチカーネルクラスタリング手法10よりも優れていた。
関連論文リスト
- MIK: Modified Isolation Kernel for Biological Sequence Visualization, Classification, and Clustering [3.9146761527401424]
本研究は,ガウスカーネルの代替として,改良分離カーネル (MIK) と呼ばれる新しいアプローチを提案する。
MIKは適応密度推定を用いて局所構造をより正確に捉え、ロバストネス対策を統合する。
局所的および大域的な構造の保存を改善し、組込み空間におけるクラスタとサブクラスタのより良い可視化を可能にする。
論文 参考訳(メタデータ) (2024-10-21T06:57:09Z) - MOKD: Cross-domain Finetuning for Few-shot Classification via Maximizing Optimized Kernel Dependence [97.93517982908007]
NCCは、ドメイン間数ショットの分類において、少数ショットの分類が可能なメートル法空間を構築するために表現を学ぶことを目的としている。
本稿では,異なるクラスから得られた2つの標本の NCC 学習表現に高い類似性があることを見出した。
ラベル付きデータによって示されるクラスタ構造にマッチするクラス固有の表現の集合を学習するために、最適化されたカーネル依存(MOKD)を最大化する二段階最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-29T05:59:52Z) - Multiple Kernel Clustering with Dual Noise Minimization [56.009011016367744]
マルチカーネルクラスタリング(MKC)は、ベースカーネルから補完的な情報を統合することでデータをグループ化する。
本稿では,双対雑音を厳密に定義し,パラメータフリーなMKCアルゴリズムを提案する。
二重ノイズはブロック対角構造を汚染し,クラスタリング性能の劣化を招き,CノイズはNノイズよりも強い破壊を示す。
論文 参考訳(メタデータ) (2022-07-13T08:37:42Z) - Local Sample-weighted Multiple Kernel Clustering with Consensus
Discriminative Graph [73.68184322526338]
マルチカーネルクラスタリング(MKC)は、ベースカーネルの集合から最適な情報融合を実現するためにコミットされる。
本稿では,新しい局所サンプル重み付きマルチカーネルクラスタリングモデルを提案する。
実験により, LSWMKCはより優れた局所多様体表現を有し, 既存のカーネルやグラフベースのクラスタリングアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2022-07-05T05:00:38Z) - Learning "best" kernels from data in Gaussian process regression. With
application to aerodynamics [0.4588028371034406]
本稿では,ガウス過程の回帰/クリギングサロゲートモデリング手法におけるカーネルの選択/設計アルゴリズムを紹介する。
アルゴリズムの最初のクラスはカーネルフローであり、機械学習の分類の文脈で導入された。
アルゴリズムの第2のクラスはスペクトル核リッジ回帰と呼ばれ、近似される関数のノルムが最小となるような「最良の」カーネルを選択することを目的としている。
論文 参考訳(メタデータ) (2022-06-03T07:50:54Z) - Kernel Identification Through Transformers [54.3795894579111]
カーネル選択はガウス過程(GP)モデルの性能決定において中心的な役割を果たす。
この研究は、高次元GP回帰モデルのためのカスタムカーネル関数を構築するという課題に対処する。
KITT: Kernel Identification through Transformersを提案する。
論文 参考訳(メタデータ) (2021-06-15T14:32:38Z) - Manifold Adaptive Multiple Kernel K-Means for Clustering [5.8671688602326215]
元のカーネルの代わりに、多様体適応カーネルを採用して、カーネルの局所多様体構造を統合する。
提案手法は, 様々なデータセット上で, 最先端のベースライン法よりも優れていることが確認された。
論文 参考訳(メタデータ) (2020-09-30T02:07:53Z) - Isolation Distributional Kernel: A New Tool for Point & Group Anomaly
Detection [76.1522587605852]
分離分散カーネル(IDK)は2つの分布の類似性を測定する新しい方法である。
我々は、カーネルベースの異常検出のための新しいツールとして、IDKの有効性と効率を示す。
論文 参考訳(メタデータ) (2020-09-24T12:25:43Z) - SimpleMKKM: Simple Multiple Kernel K-means [49.500663154085586]
単純なマルチカーネルk-means(SimpleMKKM)と呼ばれる,単純で効果的なマルチカーネルクラスタリングアルゴリズムを提案する。
我々の基準は、カーネル係数とクラスタリング分割行列における難解な最小化最大化問題によって与えられる。
クラスタリング一般化誤差の観点から,SimpleMKKMの性能を理論的に解析する。
論文 参考訳(メタデータ) (2020-05-11T10:06:40Z) - Fast Kernel k-means Clustering Using Incomplete Cholesky Factorization [11.631064399465089]
カーネルベースのクラスタリングアルゴリズムは、データセット内の非線形構造を特定し、キャプチャすることができる。
線形クラスタリングよりも優れたパフォーマンスを実現することができる。
カーネルマトリックス全体の計算と保存は非常に大きなメモリを占有しているため、カーネルベースのクラスタリングが大規模なデータセットを扱うことは困難である。
論文 参考訳(メタデータ) (2020-02-07T15:32:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。