論文の概要: Scalable Context-Preserving Model-Aware Deep Clustering for Hyperspectral Images
- arxiv url: http://arxiv.org/abs/2506.11377v1
- Date: Thu, 12 Jun 2025 16:43:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.615058
- Title: Scalable Context-Preserving Model-Aware Deep Clustering for Hyperspectral Images
- Title(参考訳): ハイパースペクトル画像のためのスケーラブルなコンテキスト保存モデル付き深層クラスタリング
- Authors: Xianlu Li, Nicolas Nadisic, Shaoguang Huang, Nikos Deligiannis, Aleksandra Pižurica,
- Abstract要約: ハイパースペクトル画像(HSI)の教師なし解析にサブスペースクラスタリングが広く採用されている。
近年のモデル対応深層空間クラスタリング手法では、O(n2)の複雑性を持つ自己表現行列の計算とスペクトルクラスタリングを含む2段階のフレームワークを用いることが多い。
本稿では,HSIクラスタリングを効率的に行うために,局所構造と非局所構造を協調的にキャプチャする,ベース表現に基づく拡張性のあるコンテキスト保存深層クラスタリング手法を提案する。
- 参考スコア(独自算出の注目度): 51.95768218975529
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Subspace clustering has become widely adopted for the unsupervised analysis of hyperspectral images (HSIs). Recent model-aware deep subspace clustering methods often use a two-stage framework, involving the calculation of a self-representation matrix with complexity of O(n^2), followed by spectral clustering. However, these methods are computationally intensive, generally incorporating solely either local or non-local spatial structure constraints, and their structural constraints fall short of effectively supervising the entire clustering process. We propose a scalable, context-preserving deep clustering method based on basis representation, which jointly captures local and non-local structures for efficient HSI clustering. To preserve local structure (i.e., spatial continuity within subspaces), we introduce a spatial smoothness constraint that aligns clustering predictions with their spatially filtered versions. For non-local structure (i.e., spectral continuity), we employ a mini-cluster-based scheme that refines predictions at the group level, encouraging spectrally similar pixels to belong to the same subspace. Notably, these two constraints are jointly optimized to reinforce each other. Specifically, our model is designed as an one-stage approach in which the structural constraints are applied to the entire clustering process. The time and space complexity of our method is O(n), making it applicable to large-scale HSI data. Experiments on real-world datasets show that our method outperforms state-of-the-art techniques. Our code is available at: https://github.com/lxlscut/SCDSC
- Abstract(参考訳): サブスペースクラスタリングは、ハイパースペクトル画像(HSI)の教師なし解析に広く採用されている。
近年のモデル対応深層空間クラスタリング法では,O(n^2)の複雑性を持つ自己表現行列を計算し,その後スペクトルクラスタリングを行う。
しかし、これらの手法は計算集約的であり、一般に局所的あるいは非局所的な空間構造制約のみを取り入れ、それらの構造的制約はクラスタリングプロセス全体を効果的に監視するに足らない。
本稿では,HSIクラスタリングを効率的に行うために,局所構造と非局所構造を協調的にキャプチャする,ベース表現に基づく拡張性のあるコンテキスト保存深層クラスタリング手法を提案する。
局所的な構造(すなわち部分空間内の空間連続性)を維持するために,クラスタリング予測を空間フィルタリングバージョンと整合させる空間滑らか性制約を導入する。
非局所構造(すなわちスペクトル連続性)に対して、我々は群レベルでの予測を洗練させるミニクラスタベースのスキームを採用し、スペクトル的に類似したピクセルが同じ部分空間に属することを奨励する。
特に、これらの2つの制約は互いに強化するために共同最適化されている。
具体的には,クラスタリングプロセス全体に構造的制約を適用する一段階的なアプローチとして設計されている。
本手法の時間と空間の複雑さはO(n)であり,大規模HSIデータに適用可能である。
実世界のデータセット実験により,本手法が最先端技術より優れていることが示された。
私たちのコードは、https://github.com/lxlscut/SCDSCで利用可能です。
関連論文リスト
- Hierarchical clustering with maximum density paths and mixture models [44.443538161979056]
t-NEBは確率的に基底化された階層的クラスタリング法である。
自然な高次元データに対して最先端のクラスタリング性能が得られる。
論文 参考訳(メタデータ) (2025-03-19T15:37:51Z) - Graph Probability Aggregation Clustering [5.377020739388736]
本稿では,グローバルクラスタリング対象関数と局所クラスタリング制約を統一するグラフベースのファジィクラスタリングアルゴリズムを提案する。
GPACフレームワーク全体は多制約最適化問題として定式化され、ラグランジアン法を用いて解くことができる。
合成,実世界,ディープラーニングのデータセットを用いて行った実験は,GPACがクラスタリング性能において既存の最先端手法を超えるだけでなく,計算効率も優れていることを示した。
論文 参考訳(メタデータ) (2025-02-27T09:11:32Z) - Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Semi-Supervised Clustering via Structural Entropy with Different
Constraints [30.215985625884922]
本稿では,多種多様な制約を組み込んで,分割と階層クラスタリングを両立させる手法であるStructure Entropy (SSE) による半教師付きクラスタリングを提案する。
9つのクラスタリングデータセット上でSSEを評価し,それを11の半教師付きパーティショニングおよび階層クラスタリング手法と比較した。
論文 参考訳(メタデータ) (2023-12-18T04:00:40Z) - Anchor-based Multi-view Subspace Clustering with Hierarchical Feature Descent [46.86939432189035]
階層的特徴Descentを用いたアンカーベースマルチビューサブスペースクラスタリングを提案する。
提案手法は最先端技術より一貫して優れている。
論文 参考訳(メタデータ) (2023-10-11T03:29:13Z) - Revisiting Instance-Optimal Cluster Recovery in the Labeled Stochastic Block Model [69.15976031704687]
IAC (Instance-Adaptive Clustering, インスタンス適応クラスタリング) を提案する。
IACは$ MathcalO(n, textpolylog(n) $の計算複雑性を維持しており、大規模問題に対してスケーラブルで実用的なものである。
論文 参考訳(メタデータ) (2023-06-18T08:46:06Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - Graph Convolutional Subspace Clustering: A Robust Subspace Clustering
Framework for Hyperspectral Image [6.332208511335129]
本稿では,HSIクラスタリングのための新しいサブスペースクラスタリングフレームワークであるGraph Convolutional Subspace Clustering (GCSC)を提案する。
具体的には、このフレームワークはデータの自己表現性を非ユークリッド領域に再キャストする。
従来のサブスペースクラスタリングモデルはユークリッドデータを用いたフレームワークの特別な形態であることを示す。
論文 参考訳(メタデータ) (2020-04-22T10:09:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。