論文の概要: Sparse Subspace Clustering Friendly Deep Dictionary Learning for
Hyperspectral Image Classification
- arxiv url: http://arxiv.org/abs/2111.13920v1
- Date: Sat, 27 Nov 2021 15:23:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 09:36:11.264405
- Title: Sparse Subspace Clustering Friendly Deep Dictionary Learning for
Hyperspectral Image Classification
- Title(参考訳): ハイパースペクトル画像分類のためのスパース部分空間クラスタリング親しみやすい深部辞書学習
- Authors: Anurag Goel and Angshul Majumdar
- Abstract要約: 深部辞書学習(DDL)の長所に基づく変換を提案する。
特に,DDLの定式化において,スパース部分空間クラスタリング(SSC)損失を考慮に入れた。
提案手法は,ハイパースペクトル画像クラスタリングにおける最先端の深層学習技術よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 25.255184843886227
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Subspace clustering techniques have shown promise in hyperspectral image
segmentation. The fundamental assumption in subspace clustering is that the
samples belonging to different clusters/segments lie in separable subspaces.
What if this condition does not hold? We surmise that even if the condition
does not hold in the original space, the data may be nonlinearly transformed to
a space where it will be separable into subspaces. In this work, we propose a
transformation based on the tenets of deep dictionary learning (DDL). In
particular, we incorporate the sparse subspace clustering (SSC) loss in the DDL
formulation. Here DDL nonlinearly transforms the data such that the transformed
representation (of the data) is separable into subspaces. We show that the
proposed formulation improves over the state-of-the-art deep learning
techniques in hyperspectral image clustering.
- Abstract(参考訳): サブスペースクラスタリング技術は、ハイパースペクトル画像のセグメンテーションにおいて有望である。
サブスペースクラスタリングの基本的な前提は、異なるクラスタ/セグメントに属するサンプルが分離可能なサブスペースにあることである。
もしこの状態が持続しなかったら?
仮に条件が元の空間に収まらないとしても、データは非線型に部分空間に分離できる空間に変換される可能性があると推測する。
本研究では,深層辞書学習(deep dictionary learning, ddl)のテンテットに基づくトランスフォーメーションを提案する。
特に,DDLの定式化において,スパース部分空間クラスタリング(SSC)損失を考慮に入れた。
ここで、ddlは(データの)変換された表現が部分空間に分離できるようなデータを非線形に変換する。
提案手法は,ハイパースペクトル画像クラスタリングにおける最先端の深層学習技術よりも優れていることを示す。
関連論文リスト
- Datacube segmentation via Deep Spectral Clustering [76.48544221010424]
拡張ビジョン技術は、しばしばその解釈に挑戦する。
データ立方体スペクトルの巨大な次元性は、その統計的解釈において複雑なタスクを生じさせる。
本稿では,符号化空間における教師なしクラスタリング手法の適用の可能性について検討する。
統計的次元削減はアドホック訓練(可変)オートエンコーダで行い、クラスタリング処理は(学習可能な)反復K-Meansクラスタリングアルゴリズムで行う。
論文 参考訳(メタデータ) (2024-01-31T09:31:28Z) - Deep Learning-Aided Subspace-Based DOA Recovery for Sparse Arrays [25.776724012525662]
本研究では,Sparse-SubspaceNetを提案する。
これにより、モデルベース部分空間DoA推定器の解釈可能性と適合性を保ちながら、コヒーレントソースやスパースアレイの誤校正に対処することを学ぶ。
論文 参考訳(メタデータ) (2023-09-10T18:32:44Z) - Group Equivariant Subsampling [60.53371517247382]
サブサンプリングは、プールやストライド畳み込みの形で畳み込みニューラルネットワーク(CNN)で使用される。
まず、正確な翻訳同変CNNを構築するために使用できる翻訳同変サブサンプリング/アップサンプリング層を導入する。
次に、これらの層を一般群への変換を超えて一般化し、したがって群同変部分サンプリング/アップサンプリングを提案する。
論文 参考訳(メタデータ) (2021-06-10T16:14:00Z) - Tensor Laplacian Regularized Low-Rank Representation for Non-uniformly
Distributed Data Subspace Clustering [2.578242050187029]
低ランク表現(LRR)は、サブスペースクラスタリングにおけるデータポイントの局所性情報を破棄する。
本稿では,隣接ノードの変動数を容易にし,データの局所性情報を組み込むハイパーグラフモデルを提案する。
人工および実データを用いた実験により,提案手法の精度と精度が向上した。
論文 参考訳(メタデータ) (2021-03-06T08:22:24Z) - Overcomplete Deep Subspace Clustering Networks [80.16644725886968]
4つのベンチマークデータセットの実験結果から,クラスタリング誤差の観点から,DSCや他のクラスタリング手法に対する提案手法の有効性が示された。
また,本手法は,最高の性能を得るために事前学習を中止する点にDSCほど依存せず,騒音にも頑健である。
論文 参考訳(メタデータ) (2020-11-16T22:07:18Z) - Invariant Deep Compressible Covariance Pooling for Aerial Scene
Categorization [80.55951673479237]
本研究では,空気シーン分類におけるニュアンス変動を解決するために,新しい不変な深部圧縮性共分散プール (IDCCP) を提案する。
本研究では,公開空間画像データセットに関する広範な実験を行い,最先端の手法と比較して,この手法の優位性を実証する。
論文 参考訳(メタデータ) (2020-11-11T11:13:07Z) - A Critique of Self-Expressive Deep Subspace Clustering [23.971512395191308]
サブスペースクラスタリング(Subspace clustering)は、線形サブスペースの和集合上でサポートされているデータをクラスタリングするために設計された、教師なしクラスタリング技術である。
従来の作業では適切に対処されていなかったこのアプローチには,潜在的な欠陥がいくつかあることを示す。
論文 参考訳(メタデータ) (2020-10-08T00:14:59Z) - Joint and Progressive Subspace Analysis (JPSA) with Spatial-Spectral
Manifold Alignment for Semi-Supervised Hyperspectral Dimensionality Reduction [48.73525876467408]
本稿では,超スペクトル部分空間解析のための新しい手法を提案する。
この手法はジョイント・アンド・プログレッシブ・サブスペース分析(JPSA)と呼ばれる。
2つの広帯域超スペクトルデータセットに対して提案したJPSAの優位性と有効性を示す実験を行った。
論文 参考訳(メタデータ) (2020-09-21T16:29:59Z) - Stochastic Sparse Subspace Clustering [20.30051592270384]
最先端のサブスペースクラスタリング手法は、各データポイントを他のデータポイントの線形結合として表現する自己表現モデルに基づいている。
本稿では,データポイントのランダムなドロップアウトに基づくオーバーセグメンテーションの問題に対処するために,ドロップアウトを導入する。
これにより、スケーラブルで柔軟なスパースサブスペースクラスタリングアプローチ(Sparse Subspace Clustering)が実現される。
論文 参考訳(メタデータ) (2020-05-04T13:09:17Z) - Robust Self-Supervised Convolutional Neural Network for Subspace
Clustering and Classification [0.10152838128195464]
本稿では,自己管理型畳み込みサブスペースクラスタリングネットワーク(S2$ConvSCN)のロバストな定式化を提案する。
真の教師なしのトレーニング環境では、Robust $S2$ConvSCNは、4つのよく知られたデータセットで見られるデータと見えないデータの両方に対して、ベースラインバージョンをかなり上回っている。
論文 参考訳(メタデータ) (2020-04-03T16:07:58Z) - Ellipsoidal Subspace Support Vector Data Description [98.67884574313292]
一クラス分類に最適化された低次元空間にデータを変換する新しい手法を提案する。
提案手法の線形および非線形の定式化について述べる。
提案手法は,最近提案されたサブスペースサポートベクトルデータ記述よりもはるかに高速に収束する。
論文 参考訳(メタデータ) (2020-03-20T21:31:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。