論文の概要: Learnable Subspace Clustering
- arxiv url: http://arxiv.org/abs/2004.04520v1
- Date: Thu, 9 Apr 2020 12:53:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 01:50:49.121194
- Title: Learnable Subspace Clustering
- Title(参考訳): 学習可能なサブスペースクラスタリング
- Authors: Jun Li, Hongfu Liu, Zhiqiang Tao, Handong Zhao, and Yun Fu
- Abstract要約: 本研究では,大規模サブスペースクラスタリング問題を効率的に解くために,学習可能なサブスペースクラスタリングパラダイムを開発する。
鍵となる考え方は、高次元部分空間を下層の低次元部分空間に分割するパラメトリック関数を学ぶことである。
我々の知る限り、本論文は、サブスペースクラスタリング手法の中で、数百万のデータポイントを効率的にクラスタ化する最初の試みである。
- 参考スコア(独自算出の注目度): 76.2352740039615
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies the large-scale subspace clustering (LSSC) problem with
million data points. Many popular subspace clustering methods cannot directly
handle the LSSC problem although they have been considered as state-of-the-art
methods for small-scale data points. A basic reason is that these methods often
choose all data points as a big dictionary to build huge coding models, which
results in a high time and space complexity. In this paper, we develop a
learnable subspace clustering paradigm to efficiently solve the LSSC problem.
The key idea is to learn a parametric function to partition the
high-dimensional subspaces into their underlying low-dimensional subspaces
instead of the expensive costs of the classical coding models. Moreover, we
propose a unified robust predictive coding machine (RPCM) to learn the
parametric function, which can be solved by an alternating minimization
algorithm. In addition, we provide a bounded contraction analysis of the
parametric function. To the best of our knowledge, this paper is the first work
to efficiently cluster millions of data points among the subspace clustering
methods. Experiments on million-scale datasets verify that our paradigm
outperforms the related state-of-the-art methods in both efficiency and
effectiveness.
- Abstract(参考訳): 本稿では,大規模部分空間クラスタリング(lssc)問題と百万のデータポイントについて検討する。
多くの一般的なサブスペースクラスタリング手法はlssc問題を直接処理することはできないが、小規模データポイントに対する最先端の手法と見なされている。
基本的な理由は、これらの方法が巨大なコーディングモデルを構築するための大きな辞書として、すべてのデータポイントを選択することが多いため、これにより、時間と空間の複雑さが高まるからだ。
本稿では,LSSC問題を効率的に解くための学習可能なサブスペースクラスタリングパラダイムを開発する。
鍵となる考え方は、古典的な符号化モデルのコストではなく、高次元部分空間を下層の低次元部分空間に分割するパラメトリック関数を学ぶことである。
さらに,交互最小化アルゴリズムによって解くことができるパラメトリック関数を学習するための統一ロバスト予測符号化マシン(rpcm)を提案する。
さらに、パラメトリック関数の有界収縮解析も提供する。
我々の知る限り、この論文は、サブスペースクラスタリング手法の中で数百万のデータポイントを効率的にクラスタ化する最初の試みである。
百万規模のデータセットの実験により、我々のパラダイムは、効率と有効性の両方において、関連する最先端手法よりも優れていることが検証された。
関連論文リスト
- Rethinking Few-shot 3D Point Cloud Semantic Segmentation [62.80639841429669]
本稿では,FS-PCSによる3Dポイント・クラウドセマンティックセマンティックセグメンテーションについて再検討する。
我々は、最先端の2つの重要な問題、前景の漏洩とスパースポイントの分布に焦点をあてる。
これらの問題に対処するために、新しいベンチマークを構築するための標準化されたFS-PCS設定を導入する。
論文 参考訳(メタデータ) (2024-03-01T15:14:47Z) - A Weighted K-Center Algorithm for Data Subset Selection [70.49696246526199]
サブセット選択は、トレーニングデータの小さな部分を特定する上で重要な役割を果たす、基本的な問題である。
我々は,k中心および不確かさサンプリング目的関数の重み付け和に基づいて,サブセットを計算する新しい係数3近似アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-12-17T04:41:07Z) - Clustering based on Mixtures of Sparse Gaussian Processes [6.939768185086753]
低次元の組込み空間を使ってデータをクラスタする方法は、マシンラーニングにおいて依然として難しい問題である。
本稿では,クラスタリングと次元還元の両立を目的とした共同定式化を提案する。
我々のアルゴリズムはスパースガウス過程の混合に基づいており、スパースガウス過程混合クラスタリング(SGP-MIC)と呼ばれる。
論文 参考訳(メタデータ) (2023-03-23T20:44:36Z) - GBMST: An Efficient Minimum Spanning Tree Clustering Based on
Granular-Ball Computing [78.92205914422925]
多粒度グラニュラバルと最小スパンニングツリー(MST)を組み合わせたクラスタリングアルゴリズムを提案する。
粒度が粗い粒状ボールを構築し,さらに粒状ボールとMSTを用いて「大規模優先度」に基づくクラスタリング手法を実装した。
いくつかのデータセットの実験結果は、アルゴリズムの威力を示している。
論文 参考訳(メタデータ) (2023-03-02T09:04:35Z) - An Instance Selection Algorithm for Big Data in High imbalanced datasets
based on LSH [0.0]
機械学習モデルを実環境で訓練することは、しばしば、関心のクラスが表現されていないビッグデータや不均衡なサンプルを扱う。
本研究は,大規模かつ不均衡なデータセットを扱うために,例選択(IS)という3つの新しい手法を提案する。
アルゴリズムはApache Sparkフレームワークで開発され、スケーラビリティが保証された。
論文 参考訳(メタデータ) (2022-10-09T17:38:41Z) - Asymmetric Scalable Cross-modal Hashing [51.309905690367835]
クロスモーダルハッシュは、大規模なマルチメディア検索問題を解決する方法として成功している。
これらの問題に対処する新しい非対称スケーラブルクロスモーダルハッシュ(ASCMH)を提案する。
我々のASCMHは、最先端のクロスモーダルハッシュ法よりも精度と効率の点で優れています。
論文 参考訳(メタデータ) (2022-07-26T04:38:47Z) - Enriched Robust Multi-View Kernel Subspace Clustering [5.770309971945476]
サブスペースクラスタリングは、下位の低次元のサブスペースを見つけ、データポイントを正しくクラスタ化する。
既存の方法の多くは2つの重大な問題に悩まされている。
本稿では,新しいマルチビューサブスペースクラスタリング手法を提案する。
論文 参考訳(メタデータ) (2022-05-21T03:06:24Z) - A Deep Learning Object Detection Method for an Efficient Clusters
Initialization [6.365889364810239]
クラスタリングは、銀行顧客のプロファイリング、文書検索、画像セグメンテーション、Eコマースレコメンデーションエンジンなど、多くのアプリケーションで使用されている。
既存のクラスタリング技術には、初期化パラメータに対する安定性の信頼性という大きな制限がある。
本稿では,計算オーバーヘッドとリソースオーバーヘッドの少ない最適クラスタリングパラメータを提供するソリューションを提案する。
論文 参考訳(メタデータ) (2021-04-28T08:34:25Z) - Overcomplete Deep Subspace Clustering Networks [80.16644725886968]
4つのベンチマークデータセットの実験結果から,クラスタリング誤差の観点から,DSCや他のクラスタリング手法に対する提案手法の有効性が示された。
また,本手法は,最高の性能を得るために事前学習を中止する点にDSCほど依存せず,騒音にも頑健である。
論文 参考訳(メタデータ) (2020-11-16T22:07:18Z) - An Efficient Smoothing Proximal Gradient Algorithm for Convex Clustering [2.5182813818441945]
最近導入された凸クラスタリング手法は、凸最適化問題としてクラスタリングを定式化している。
最先端の凸クラスタリングアルゴリズムは大規模な計算とメモリ空間を必要とする。
本稿では,凸クラスタリングのための非常に効率的なスムーズな勾配法 (Sproga) を提案する。
論文 参考訳(メタデータ) (2020-06-22T20:02:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。