論文の概要: Multiple Kernel Clustering with Dual Noise Minimization
- arxiv url: http://arxiv.org/abs/2207.06041v1
- Date: Wed, 13 Jul 2022 08:37:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-14 12:24:06.945894
- Title: Multiple Kernel Clustering with Dual Noise Minimization
- Title(参考訳): デュアルノイズ最小化によるマルチカーネルクラスタリング
- Authors: Junpu Zhang and Liang Li and Siwei Wang and Jiyuan Liu and Yue Liu and
Xinwang Liu and En Zhu
- Abstract要約: マルチカーネルクラスタリング(MKC)は、ベースカーネルから補完的な情報を統合することでデータをグループ化する。
本稿では,双対雑音を厳密に定義し,パラメータフリーなMKCアルゴリズムを提案する。
二重ノイズはブロック対角構造を汚染し,クラスタリング性能の劣化を招き,CノイズはNノイズよりも強い破壊を示す。
- 参考スコア(独自算出の注目度): 56.009011016367744
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Clustering is a representative unsupervised method widely applied in
multi-modal and multi-view scenarios. Multiple kernel clustering (MKC) aims to
group data by integrating complementary information from base kernels. As a
representative, late fusion MKC first decomposes the kernels into orthogonal
partition matrices, then learns a consensus one from them, achieving promising
performance recently. However, these methods fail to consider the noise inside
the partition matrix, preventing further improvement of clustering performance.
We discover that the noise can be disassembled into separable dual parts, i.e.
N-noise and C-noise (Null space noise and Column space noise). In this paper,
we rigorously define dual noise and propose a novel parameter-free MKC
algorithm by minimizing them. To solve the resultant optimization problem, we
design an efficient two-step iterative strategy. To our best knowledge, it is
the first time to investigate dual noise within the partition in the kernel
space. We observe that dual noise will pollute the block diagonal structures
and incur the degeneration of clustering performance, and C-noise exhibits
stronger destruction than N-noise. Owing to our efficient mechanism to minimize
dual noise, the proposed algorithm surpasses the recent methods by large
margins.
- Abstract(参考訳): クラスタリングは、マルチモーダルおよびマルチビューシナリオに広く適用される、教師なしの代表的な方法である。
マルチカーネルクラスタリング(MKC)は、ベースカーネルからの補完情報を統合することでデータをグループ化する。
代表として、後期融合MKCはまずカーネルを直交分割行列に分解し、それからコンセンサスを学習し、最近は有望な性能を達成した。
しかし,これらの手法は分割行列内のノイズを考慮せず,クラスタリング性能が向上するのを防ぐ。
その結果,n-ノイズとc-ノイズ(ヌル空間ノイズとカラム空間ノイズ)という分離可能な2成分に分解できることがわかった。
本稿では,二重雑音を厳密に定義し,パラメータフリーなmkcアルゴリズムを提案する。
結果の最適化問題を解決するために,効率的な2段階反復戦略を設計する。
我々の知る限りでは、カーネル空間のパーティション内の二重ノイズを調査するのは初めてである。
二重ノイズはブロック対角構造を汚染し,クラスタリング性能の劣化を招き,CノイズはNノイズよりも強い破壊を示す。
両雑音を最小化する効率的な機構により,提案アルゴリズムは近年の手法を大きなマージンで上回っている。
関連論文リスト
- Multiple Kernel Clustering via Local Regression Integration [4.856913393644719]
複数のカーネルメソッドは、複数のカーネルデータの固有の多様体構造をあまり考慮しない。
本稿ではまず,カーネル型局所回帰(CKLR)を用いたクラスタリング手法を提案する。
次に、マルチカーネルローカルレグレッション(CMKLR)を介してクラスタリングを行うように拡張する。
論文 参考訳(メタデータ) (2024-10-20T06:26:29Z) - MOKD: Cross-domain Finetuning for Few-shot Classification via Maximizing Optimized Kernel Dependence [97.93517982908007]
NCCは、ドメイン間数ショットの分類において、少数ショットの分類が可能なメートル法空間を構築するために表現を学ぶことを目的としている。
本稿では,異なるクラスから得られた2つの標本の NCC 学習表現に高い類似性があることを見出した。
ラベル付きデータによって示されるクラスタ構造にマッチするクラス固有の表現の集合を学習するために、最適化されたカーネル依存(MOKD)を最大化する二段階最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-29T05:59:52Z) - Towards Robust Few-shot Point Cloud Semantic Segmentation [57.075074484313]
ショットポイントのクラウドセマンティックセグメンテーションは、少数のサポートセットのサンプルだけで、新しい見えないクラスに迅速に適応するようにモデルをトレーニングすることを目的としている。
本稿では,識別的特徴表現を学習するためのコンポーネントレベルクリーンノイズ分離(CCNS)表現学習を提案する。
また,MDNS(Multi-scale Degree-based Noise Suppression)方式を提案する。
論文 参考訳(メタデータ) (2023-09-20T11:40:10Z) - POCKET: Pruning Random Convolution Kernels for Time Series Classification from a Feature Selection Perspective [8.359327841946852]
時系列分類モデルであるPOCKETは、冗長カーネルを効率的にプルークするように設計されている。
POCKETは、精度を大幅に低下させることなく最大60%のカーネルを出力し、そのカーネルよりも11$times$高速に動作させる。
多様な時系列データセットによる実験結果から、POCKETは精度を著しく低下させることなく最大60%のカーネルを産み出し、それよりも11$times$高速に動作していることがわかった。
論文 参考訳(メタデータ) (2023-09-15T16:03:23Z) - Local Sample-weighted Multiple Kernel Clustering with Consensus
Discriminative Graph [73.68184322526338]
マルチカーネルクラスタリング(MKC)は、ベースカーネルの集合から最適な情報融合を実現するためにコミットされる。
本稿では,新しい局所サンプル重み付きマルチカーネルクラスタリングモデルを提案する。
実験により, LSWMKCはより優れた局所多様体表現を有し, 既存のカーネルやグラフベースのクラスタリングアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2022-07-05T05:00:38Z) - Learning "best" kernels from data in Gaussian process regression. With
application to aerodynamics [0.4588028371034406]
本稿では,ガウス過程の回帰/クリギングサロゲートモデリング手法におけるカーネルの選択/設計アルゴリズムを紹介する。
アルゴリズムの最初のクラスはカーネルフローであり、機械学習の分類の文脈で導入された。
アルゴリズムの第2のクラスはスペクトル核リッジ回帰と呼ばれ、近似される関数のノルムが最小となるような「最良の」カーネルを選択することを目的としている。
論文 参考訳(メタデータ) (2022-06-03T07:50:54Z) - Learning Halfspaces with Tsybakov Noise [50.659479930171585]
テュバコフ雑音の存在下でのハーフスペースの学習可能性について検討する。
真半空間に関して誤分類誤差$epsilon$を達成するアルゴリズムを与える。
論文 参考訳(メタデータ) (2020-06-11T14:25:02Z) - SimpleMKKM: Simple Multiple Kernel K-means [49.500663154085586]
単純なマルチカーネルk-means(SimpleMKKM)と呼ばれる,単純で効果的なマルチカーネルクラスタリングアルゴリズムを提案する。
我々の基準は、カーネル係数とクラスタリング分割行列における難解な最小化最大化問題によって与えられる。
クラスタリング一般化誤差の観点から,SimpleMKKMの性能を理論的に解析する。
論文 参考訳(メタデータ) (2020-05-11T10:06:40Z) - Provable Noisy Sparse Subspace Clustering using Greedy Neighbor
Selection: A Coherence-Based Perspective [18.888312436971187]
我々は,MP/OMPを用いた適切な隣接同定を保証するためのコヒーレンスに基づく十分な条件を導出する。
驚くべき発見は、基底の真理部分空間が互いによく分離され、ノイズがそれほど大きくない場合、MPベースの繰り返しはアルゴリズムの複雑さが小さくなり、残余の摂動が小さくなることである。
論文 参考訳(メタデータ) (2020-02-02T14:28:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。