論文の概要: SLCRF: Subspace Learning with Conditional Random Field for Hyperspectral
Image Classification
- arxiv url: http://arxiv.org/abs/2010.03115v1
- Date: Wed, 7 Oct 2020 02:25:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 23:55:28.291706
- Title: SLCRF: Subspace Learning with Conditional Random Field for Hyperspectral
Image Classification
- Title(参考訳): SLCRF:ハイパースペクトル画像分類のための条件ランダム場を用いた部分空間学習
- Authors: Yun Cao, Jie Mei, Yuebin Wang, Liqiang Zhang, Junhuan Peng, Bing
Zhang, Lihua Li, and Yibo Zheng
- Abstract要約: サブスペース学習(SL)は,高スペクトル画像(HSI)分類において重要な役割を担っている。
SLに関するこれまでの研究は、HSI認識の精度を向上させることを目的としていた。
条件付きランダムフィールド(SLCRF)を用いた部分空間学習(subspace learning)と呼ばれる確率仮定を含む新しいSL法を開発した。
- 参考スコア(独自算出の注目度): 13.541897463935305
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Subspace learning (SL) plays an important role in hyperspectral image (HSI)
classification, since it can provide an effective solution to reduce the
redundant information in the image pixels of HSIs. Previous works about SL aim
to improve the accuracy of HSI recognition. Using a large number of labeled
samples, related methods can train the parameters of the proposed solutions to
obtain better representations of HSI pixels. However, the data instances may
not be sufficient enough to learn a precise model for HSI classification in
real applications. Moreover, it is well-known that it takes much time, labor
and human expertise to label HSI images. To avoid the aforementioned problems,
a novel SL method that includes the probability assumption called subspace
learning with conditional random field (SLCRF) is developed. In SLCRF, first,
the 3D convolutional autoencoder (3DCAE) is introduced to remove the redundant
information in HSI pixels. In addition, the relationships are also constructed
using the spectral-spatial information among the adjacent pixels. Then, the
conditional random field (CRF) framework can be constructed and further
embedded into the HSI SL procedure with the semi-supervised approach. Through
the linearized alternating direction method termed LADMAP, the objective
function of SLCRF is optimized using a defined iterative algorithm. The
proposed method is comprehensively evaluated using the challenging public HSI
datasets. We can achieve stateof-the-art performance using these HSI sets.
- Abstract(参考訳): サブスペース学習(sl)は、hsisの画像画素における冗長な情報を減らす効果的な解決策を提供するため、ハイパースペクトル画像(hsi)分類において重要な役割を果たす。
slに関する以前の研究は、hsi認識の精度を向上させることを目的としている。
多数のラベル付きサンプルを使用して、関連する手法は提案する解のパラメータを訓練し、hsiピクセルのより良い表現を得ることができる。
しかし、実際のアプリケーションでHSI分類の正確なモデルを学ぶのに十分なデータインスタンスは十分ではないかもしれない。
また,hsi画像のラベル付けには時間,労力,人間的知識を要することが知られている。
上記の問題を回避するため,条件付きランダムフィールドを用いた部分空間学習(SLCRF)と呼ばれる確率仮定を含む新しいSL法を開発した。
まず、SLCRFにおいて、3D畳み込みオートエンコーダ(3DCAE)を導入し、HSI画素の冗長情報を除去する。
また、隣接画素間のスペクトル空間情報を用いて関連性を構築する。
そして、条件付き確率場(crf)フレームワークを構築し、さらに半教師付きアプローチでhsi slプロシージャに組み込むことができる。
LADMAPと呼ばれる線形化交互方向法により、SLCRFの目的関数は、定義された反復アルゴリズムを用いて最適化される。
提案手法は,挑戦的な公開HSIデータセットを用いて包括的に評価する。
これらのHSIセットを用いて最先端の性能を実現する。
関連論文リスト
- Superpixel Graph Contrastive Clustering with Semantic-Invariant
Augmentations for Hyperspectral Images [64.72242126879503]
ハイパースペクトル画像(HSI)クラスタリングは重要な課題だが難しい課題である。
まず3次元と2次元のハイブリッド畳み込みニューラルネットワークを用いてHSIの高次空間およびスペクトルの特徴を抽出する。
次に,超画素グラフの対比クラスタリングモデルを設計し,識別的超画素表現を学習する。
論文 参考訳(メタデータ) (2024-03-04T07:40:55Z) - Superpixel-based and Spatially-regularized Diffusion Learning for
Unsupervised Hyperspectral Image Clustering [4.643572021927615]
本稿では,新しい教師なしHSIクラスタリングアルゴリズム,スーパーピクセルベースおよび空間正規化拡散学習(S2DL)を提案する。
S2DLは、HSIに符号化された豊富な空間情報を拡散幾何学に基づくクラスタリングに組み込む。
S2DLのパフォーマンスは、公開されている実世界の3つのHSIに関する広範な実験で説明されている。
論文 参考訳(メタデータ) (2023-12-24T09:54:40Z) - Deep Posterior Distribution-based Embedding for Hyperspectral Image
Super-resolution [75.24345439401166]
本稿では,高スペクトル画像の高次元空間スペクトル情報を効率的に効率的に埋め込む方法について述べる。
我々は,HS埋め込みを,慎重に定義されたHS埋め込みイベントの集合の後方分布の近似として定式化する。
そして,提案手法を物理的に解釈可能なソース一貫性超解像フレームワークに組み込む。
3つの一般的なベンチマークデータセットに対する実験により、PDE-Netは最先端の手法よりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2022-05-30T06:59:01Z) - GAF-NAU: Gramian Angular Field encoded Neighborhood Attention U-Net for
Pixel-Wise Hyperspectral Image Classification [0.0]
我々は,ピクセルベースのHSI分類のための新しいディープラーニングアーキテクチャ,すなわちGramian Angular Field Encoded Neighborhood Attention U-Net(GAF-NAU)を提案する。
提案手法は,2D-CNNに基づく分類を行うために,対象画素を中心にした領域やパッチを必要としない。
公開されている3つのHSIデータセットの評価結果から,提案モデルの有効性が示された。
論文 参考訳(メタデータ) (2022-04-21T13:45:18Z) - Coarse-to-Fine Sparse Transformer for Hyperspectral Image Reconstruction [138.04956118993934]
本稿では, サース・トゥ・ファインス・スパース・トランス (CST) を用いた新しいトランス方式を提案する。
HSI再構成のための深層学習にHSI空間を埋め込んだCST
特に,CSTは,提案したスペクトル認識スクリーニング機構(SASM)を粗いパッチ選択に使用し,選択したパッチを,細かなピクセルクラスタリングと自己相似性キャプチャのために,カスタマイズしたスペクトル集約ハッシュ型マルチヘッド自己アテンション(SAH-MSA)に入力する。
論文 参考訳(メタデータ) (2022-03-09T16:17:47Z) - Learning A 3D-CNN and Transformer Prior for Hyperspectral Image
Super-Resolution [80.93870349019332]
本稿では,CNN の代わりに Transformer を用いて HSI の事前学習を行う新しい HSISR 手法を提案する。
具体的には、まず勾配アルゴリズムを用いてHSISRモデルを解き、次に展開ネットワークを用いて反復解過程をシミュレートする。
論文 参考訳(メタデータ) (2021-11-27T15:38:57Z) - Hyperspectral Pansharpening Based on Improved Deep Image Prior and
Residual Reconstruction [64.10636296274168]
高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能化
近年,深層畳み込みネットワーク(ConvNets)を用いたHSパンシャープ法が注目に値する結果を得た。
深層層の増加を抑えることで高レベルの特徴を学習することに焦点を当てた,新しいオーバーコンプリートネットワークHyperKiteを提案する。
論文 参考訳(メタデータ) (2021-07-06T14:11:03Z) - Hyperspectral Image Classification with Spatial Consistence Using Fully
Convolutional Spatial Propagation Network [9.583523548244683]
深部畳み込みニューラルネットワーク(CNN)は、高スペクトル画像(HSI)を表現できる印象的な能力を示している
本稿では,HSI分類のための新しいエンドツーエンドの画素間完全畳み込み空間伝搬ネットワーク(FCSPN)を提案する。
FCSPNは3次元完全畳み込みネットワーク(3D-FCN)と畳み込み空間伝播ネットワーク(CSPN)からなる。
論文 参考訳(メタデータ) (2020-08-04T09:05:52Z) - Hyperspectral Image Super-resolution via Deep Progressive Zero-centric
Residual Learning [62.52242684874278]
空間情報とスペクトル情報の相互モダリティ分布が問題となる。
本稿では,PZRes-Netという,新しいテクスライトウェイトなディープニューラルネットワークベースのフレームワークを提案する。
本フレームワークは,高分解能かつテクテッセロ中心の残像を学習し,シーンの空間的詳細を高頻度で表現する。
論文 参考訳(メタデータ) (2020-06-18T06:32:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。