論文の概要: Scalable Deep Subspace Clustering Network
- arxiv url: http://arxiv.org/abs/2512.21434v1
- Date: Wed, 24 Dec 2025 21:46:38 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-29 11:56:38.853068
- Title: Scalable Deep Subspace Clustering Network
- Title(参考訳): スケーラブルなDeep Subspace Clustering Network
- Authors: Nairouz Mrabah, Mohamed Bouguessa, Sihem Sami,
- Abstract要約: 我々はランドマークベースの近似により$mathcalO(n)$複雑性を実現するディープサブスペースクラスタリングフレームワークであるSDSNetを提案する。
本研究では,SDSNetのクラスタリング品質を最先端手法と同等に向上し,計算効率が大幅に向上したことを示す。
- 参考スコア(独自算出の注目度): 6.321283533425182
- License:
- Abstract: Subspace clustering methods face inherent scalability limits due to the $O(n^3)$ cost (with $n$ denoting the number of data samples) of constructing full $n\times n$ affinities and performing spectral decomposition. While deep learning-based approaches improve feature extraction, they maintain this computational bottleneck through exhaustive pairwise similarity computations. We propose SDSNet (Scalable Deep Subspace Network), a deep subspace clustering framework that achieves $\mathcal{O}(n)$ complexity through (1) landmark-based approximation, avoiding full affinity matrices, (2) joint optimization of auto-encoder reconstruction with self-expression objectives, and (3) direct spectral clustering on factorized representations. The framework combines convolutional auto-encoders with subspace-preserving constraints. Experimental results demonstrate that SDSNet achieves comparable clustering quality to state-of-the-art methods with significantly improved computational efficiency.
- Abstract(参考訳): サブスペースクラスタリング法は、$O(n^3)$コスト(データサンプルの数を表す$n$)による、完全な$n\times n$アフィニティの構築とスペクトル分解の実行による固有のスケーラビリティ制限に直面している。
ディープラーニングベースのアプローチは特徴抽出を改善するが、完全なペアワイド類似性計算によってこの計算ボトルネックを維持する。
SDSNet(Scalable Deep Subspace Network)は,(1)ランドマークをベースとした近似を行い,完全親和性行列を回避し,(2)自己表現目的による自己エンコーダ再構築の最適化,(3)因子化表現による直接スペクトルクラスタリングを実現する,深層空間クラスタリングフレームワークである。
このフレームワークは、畳み込み自動エンコーダとサブスペース保存制約を組み合わせる。
実験により, SDSNetは, 計算効率を著しく向上し, 最先端手法に匹敵するクラスタリング品質を実現することを示した。
関連論文リスト
- Scalable Context-Preserving Model-Aware Deep Clustering for Hyperspectral Images [51.95768218975529]
ハイパースペクトル画像(HSI)の教師なし解析にサブスペースクラスタリングが広く採用されている。
近年のモデル対応深層空間クラスタリング手法では、O(n2)の複雑性を持つ自己表現行列の計算とスペクトルクラスタリングを含む2段階のフレームワークを用いることが多い。
本稿では,HSIクラスタリングを効率的に行うために,局所構造と非局所構造を協調的にキャプチャする,ベース表現に基づく拡張性のあるコンテキスト保存深層クラスタリング手法を提案する。
論文 参考訳(メタデータ) (2025-06-12T16:43:09Z) - Unsupervised Deep Clustering of MNIST with Triplet-Enhanced Convolutional Autoencoders [0.0]
本研究は、MNIST手書き桁のための高度な教師なしクラスタリングシステムを実装した。
ディープ・ニューラル・オートエンコーダは、画像の最小でも解釈可能な表現を開発するために、フェーズ1のトレーニングプロセスを必要とする。
論文 参考訳(メタデータ) (2025-06-11T18:26:13Z) - Deep Double Self-Expressive Subspace Clustering [7.875193047472789]
二重自己表現型サブスペースクラスタリングアルゴリズムを提案する。
提案アルゴリズムは最先端手法よりも優れたクラスタリングを実現することができる。
論文 参考訳(メタデータ) (2023-06-20T15:10:35Z) - Revisiting Instance-Optimal Cluster Recovery in the Labeled Stochastic Block Model [85.51611950757643]
IAC (Instance-Adaptive Clustering, インスタンス適応クラスタリング) を提案する。
IACは$ MathcalO(n, textpolylog(n) $の計算複雑性を維持しており、大規模問題に対してスケーラブルで実用的なものである。
論文 参考訳(メタデータ) (2023-06-18T08:46:06Z) - On the Convergence of Distributed Stochastic Bilevel Optimization
Algorithms over a Network [55.56019538079826]
バイレベル最適化は、幅広い機械学習モデルに適用されている。
既存のアルゴリズムの多くは、分散データを扱うことができないように、シングルマシンの設定を制限している。
そこで我々は,勾配追跡通信機構と2つの異なる勾配に基づく分散二段階最適化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-06-30T05:29:52Z) - Matching Pursuit Based Scheduling for Over-the-Air Federated Learning [67.59503935237676]
本稿では,フェデレートラーニング手法を用いて,オーバー・ザ・エアラーニングのための低複雑さデバイススケジューリングアルゴリズムのクラスを開発する。
最先端の提案方式と比較すると,提案方式は極めて低効率なシステムである。
提案手法の有効性は,CIFARデータセットを用いた実験により確認した。
論文 参考訳(メタデータ) (2022-06-14T08:14:14Z) - Self-Supervised Deep Subspace Clustering with Entropy-norm [0.0]
エントロピーノルムを用いた自己監督深部サブスペースクラスタリング(S$3$CE)
S$3$CEは自己教師付きコントラストネットワークを利用して、より効率的な特徴ベクトルを得る。
データ拡張を伴う新しいモジュールは、S$3$CEがデータのキー情報に集中できるように設計されている。
論文 参考訳(メタデータ) (2022-06-10T09:15:33Z) - DRBM-ClustNet: A Deep Restricted Boltzmann-Kohonen Architecture for Data
Clustering [0.0]
DRBM-ClustNetと呼ばれるデータクラスタリングのためのベイジアンDeep Restricted Boltzmann-Kohonenアーキテクチャを提案する。
ラベルなしデータの処理は、非線形分離可能なデータセットの効率的なクラスタリングのために、3段階に分けて行われる。
このフレームワークはクラスタリングの精度に基づいて評価され、他の最先端クラスタリング手法と比較してランク付けされる。
論文 参考訳(メタデータ) (2022-05-13T15:12:18Z) - Overcomplete Deep Subspace Clustering Networks [80.16644725886968]
4つのベンチマークデータセットの実験結果から,クラスタリング誤差の観点から,DSCや他のクラスタリング手法に対する提案手法の有効性が示された。
また,本手法は,最高の性能を得るために事前学習を中止する点にDSCほど依存せず,騒音にも頑健である。
論文 参考訳(メタデータ) (2020-11-16T22:07:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。