論文の概要: When Hyperspectral Image Classification Meets Diffusion Models: An
Unsupervised Feature Learning Framework
- arxiv url: http://arxiv.org/abs/2306.08964v1
- Date: Thu, 15 Jun 2023 08:56:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 15:33:52.469170
- Title: When Hyperspectral Image Classification Meets Diffusion Models: An
Unsupervised Feature Learning Framework
- Title(参考訳): 超スペクトル画像分類が拡散モデルを満たす場合:教師なし特徴学習フレームワーク
- Authors: Jingyi Zhou, Jiamu Sheng, Jiayuan Fan, Peng Ye, Tong He, Bin Wang, and
Tao Chen
- Abstract要約: 本稿では,HSI分類のための拡散モデルに基づくスペクトル空間特徴学習フレームワークDiff-HSIを提案する。
豊富な時間ステップの機能をうまく利用するために、時間ステップのフィーチャバンクと動的な機能融合モジュールを設計する。
以上の結果から,Diff-HSIはHSI分類における最先端の教師あり手法および教師なし手法よりも優れていた。
- 参考スコア(独自算出の注目度): 21.625816852918824
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning effective spectral-spatial features is important for the
hyperspectral image (HSI) classification task, but the majority of existing HSI
classification methods still suffer from modeling complex spectral-spatial
relations and characterizing low-level details and high-level semantics
comprehensively. As a new class of record-breaking generative models, diffusion
models are capable of modeling complex relations for understanding inputs well
as learning both high-level and low-level visual features. Meanwhile, diffusion
models can capture more abundant features by taking advantage of the extra and
unique dimension of timestep t. In view of these, we propose an unsupervised
spectral-spatial feature learning framework based on the diffusion model for
HSI classification for the first time, named Diff-HSI. Specifically, we first
pretrain the diffusion model with unlabeled HSI patches for unsupervised
feature learning, and then exploit intermediate hierarchical features from
different timesteps for classification. For better using the abundant
timestep-wise features, we design a timestep-wise feature bank and a dynamic
feature fusion module to construct timestep-wise features, adaptively learning
informative multi-timestep representations. Finally, an ensemble of linear
classifiers is applied to perform HSI classification. Extensive experiments are
conducted on three public HSI datasets, and our results demonstrate that
Diff-HSI outperforms state-of-the-art supervised and unsupervised methods for
HSI classification.
- Abstract(参考訳): 有効なスペクトル空間特徴の学習はハイパースペクトル画像(hsi)分類タスクにおいて重要であるが、既存のhsi分類手法の大部分は依然として複雑なスペクトル空間関係をモデル化し、低レベル詳細と高レベル意味論を包括的に特徴付けるのに苦しむ。
新しい記録破り生成モデルのクラスとして、拡散モデルは、入力を理解するための複雑な関係をモデル化し、高レベルと低レベルの両方の視覚的特徴を学習することができる。
一方、拡散モデルは時間ステップ t の余剰次元と一意次元を生かしてより豊富な特徴を捉えることができる。
そこで本研究では,HSI分類のための拡散モデルに基づくスペクトル空間特徴学習フレームワークDiff-HSIを提案する。
具体的には,教師なし特徴学習のためにラベルなしhsiパッチを用いて拡散モデルを事前学習し,分類のために異なる時間ステップの中間階層特徴を活用した。
時間段階的特徴バンクと動的特徴融合モジュールを設計し、時間段階的特徴を設計し、情報的多段階表現を適応的に学習する。
最後に線形分類器のアンサンブルを適用してHSI分類を行う。
Diff-HSIは3つの公開HSIデータセットに対して大規模な実験を行い,その実験結果から,HSI分類における最先端の教師付きおよび教師なしの手法よりも優れた性能を示した。
関連論文リスト
- DiffSpectralNet : Unveiling the Potential of Diffusion Models for
Hyperspectral Image Classification [6.521187080027966]
我々は拡散と変圧器技術を組み合わせたDiffSpectralNetと呼ばれる新しいネットワークを提案する。
まず,拡散モデルに基づく教師なし学習フレームワークを用いて,高レベル・低レベルのスペクトル空間的特徴を抽出する。
この拡散法はスペクトル空間の特徴を多様かつ有意義に抽出し,HSI分類の改善につながる。
論文 参考訳(メタデータ) (2023-10-29T15:26:37Z) - Exploiting Spatial-temporal Data for Sleep Stage Classification via
Hypergraph Learning [16.802013781690402]
睡眠段階分類のための時空間データをエンコードするハイパーグラフを導入した動的学習フレームワークSTHLを提案する。
提案したSTHLは睡眠段階分類タスクにおける最先端モデルよりも優れる。
論文 参考訳(メタデータ) (2023-09-05T11:01:30Z) - SpectralDiff: A Generative Framework for Hyperspectral Image
Classification with Diffusion Models [18.391049303136715]
拡散モデルを用いたHSI分類のための生成フレームワーク(SpectralDiff)を提案する。
SpectralDiffは、高次元および高冗長なデータの分布情報を効果的にマイニングする。
3つの公開HSIデータセットの実験により、提案手法は最先端の手法よりも優れた性能が得られることを示した。
論文 参考訳(メタデータ) (2023-04-12T16:32:34Z) - Spatio-temporal Relation Modeling for Few-shot Action Recognition [100.3999454780478]
本稿では,高次時間表現を同時に学習しながら,クラス固有の特徴の識別性を向上する数ショットアクション認識フレームワークSTRMを提案する。
本手法は,本研究でもっとも優れた手法に比べて,分類精度が3.5%向上した。
論文 参考訳(メタデータ) (2021-12-09T18:59:14Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z) - Structure-Aware Feature Generation for Zero-Shot Learning [108.76968151682621]
潜在空間と生成ネットワークの両方を学習する際の位相構造を考慮し,SA-GANと呼ばれる新しい構造認識特徴生成手法を提案する。
本手法は,未確認クラスの一般化能力を大幅に向上させ,分類性能を向上させる。
論文 参考訳(メタデータ) (2021-08-16T11:52:08Z) - Learnable Dynamic Temporal Pooling for Time Series Classification [22.931314501371805]
本稿では,セグメントレベルの特徴を集約することにより,隠れ表現の時間的サイズを低減する動的時間的プーリング(DTP)手法を提案する。
時系列全体の分割を複数のセグメントに分割するために,動的時間ゆがみ(dtw)を用いて各時間点を時間順に整列し,セグメントの原型的特徴を示す。
完全連結層と組み合わせたDTP層は、入力時系列内の時間的位置を考慮したさらなる識別的特徴を抽出するのに役立つ。
論文 参考訳(メタデータ) (2021-04-02T08:58:44Z) - Spatial-spectral Hyperspectral Image Classification via Multiple Random
Anchor Graphs Ensemble Learning [88.60285937702304]
本稿では,複数のランダムアンカーグラフアンサンブル学習(RAGE)を用いた空間スペクトルHSI分類手法を提案する。
まず、各選択されたバンドのより記述的な特徴を抽出し、局所的な構造と領域の微妙な変化を保存するローカルバイナリパターンを採用する。
次に,アンカーグラフの構成に適応隣接代入を導入し,計算複雑性を低減した。
論文 参考訳(メタデータ) (2021-03-25T09:31:41Z) - Adversarial Feature Augmentation and Normalization for Visual
Recognition [109.6834687220478]
最近のコンピュータビジョンの進歩は、分類モデルの一般化能力を改善するために、逆データ拡張を利用する。
本稿では,中間的特徴埋め込みにおける敵対的拡張を提唱する効率的かつ効率的な代替手法を提案する。
代表的なバックボーンネットワークを用いて,多様な視覚認識タスクにまたがる提案手法を検証する。
論文 参考訳(メタデータ) (2021-03-22T20:36:34Z) - Overcoming Classifier Imbalance for Long-tail Object Detection with
Balanced Group Softmax [88.11979569564427]
本報告では, 長期分布前における最先端モデルの過小評価に関する最初の体系的解析を行う。
本稿では,グループワイドトレーニングを通じて検出フレームワーク内の分類器のバランスをとるための,新しいバランス付きグループソフトマックス(BAGS)モジュールを提案する。
非常に最近の長尾大語彙オブジェクト認識ベンチマークLVISの大規模な実験により,提案したBAGSは検出器の性能を著しく向上することが示された。
論文 参考訳(メタデータ) (2020-06-18T10:24:26Z) - Improving Deep Hyperspectral Image Classification Performance with
Spectral Unmixing [3.84448093764973]
本稿では,多元HSI分類法を提案する。
我々は、データセット固有のオートエンコーダにより、スペクトル領域から豊富な領域へのすべてのHSIを変換する。
次に、複数のHSIからの豊富な表現を収集して拡大データセットを形成する。
論文 参考訳(メタデータ) (2020-04-01T17:14:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。