論文の概要: Probabilistic Deep Metric Learning for Hyperspectral Image
Classification
- arxiv url: http://arxiv.org/abs/2211.08349v1
- Date: Tue, 15 Nov 2022 17:57:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 13:05:26.802969
- Title: Probabilistic Deep Metric Learning for Hyperspectral Image
Classification
- Title(参考訳): ハイパースペクトル画像分類のための確率論的深度学習
- Authors: Chengkun Wang, Wenzhao Zheng, Xian Sun, Jiwen Lu, Jie Zhou
- Abstract要約: 本稿では,ハイパースペクトル画像分類のための確率論的深度学習フレームワークを提案する。
ハイパースペクトルセンサーが捉えた画像に対して、各ピクセルのカテゴリを予測することを目的としている。
我々のフレームワークは、既存のハイパースペクトル画像分類法に容易に適用できる。
- 参考スコア(独自算出の注目度): 91.5747859691553
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a probabilistic deep metric learning (PDML) framework for
hyperspectral image classification, which aims to predict the category of each
pixel for an image captured by hyperspectral sensors. The core problem for
hyperspectral image classification is the spectral variability between
intraclass materials and the spectral similarity between interclass materials,
motivating the further incorporation of spatial information to differentiate a
pixel based on its surrounding patch. However, different pixels and even the
same pixel in one patch might not encode the same material due to the low
spatial resolution of most hyperspectral sensors, leading to an inconsistent
judgment of a specific pixel. To address this issue, we propose a probabilistic
deep metric learning framework to model the categorical uncertainty of the
spectral distribution of an observed pixel. We propose to learn a global
probabilistic distribution for each pixel in the patch and a probabilistic
metric to model the distance between distributions. We treat each pixel in a
patch as a training sample, enabling us to exploit more information from the
patch compared with conventional methods. Our framework can be readily applied
to existing hyperspectral image classification methods with various network
architectures and loss functions. Extensive experiments on four widely used
datasets including IN, UP, KSC, and Houston 2013 datasets demonstrate that our
framework improves the performance of existing methods and further achieves the
state of the art. Code is available at: https://github.com/wzzheng/PDML.
- Abstract(参考訳): 本稿では,ハイパースペクトル画像分類のための確率論的深度学習(PDML)フレームワークを提案する。
ハイパースペクトル画像分類の核となる問題は、クラス内物質間のスペクトル変動とクラス間物質のスペクトル類似性であり、周囲のパッチに基づいてピクセルを区別するための空間情報のさらなる取り込みを動機付けるものである。
しかし、多くのハイパースペクトルセンサーの空間解像度が低いため、異なるピクセルと同一のピクセルでさえ同じ物質を符号化しない可能性があるため、特定のピクセルの矛盾した判断が導かれる。
この問題に対処するために,観測画素のスペクトル分布のカテゴリー的不確かさをモデル化する確率論的深度学習フレームワークを提案する。
本稿では,パッチ内の各画素に対する大域的確率分布と,分布間の距離をモデル化する確率指標について述べる。
パッチ内の各ピクセルをトレーニングサンプルとして扱い、従来の方法と比較してパッチからより多くの情報を利用することができる。
本フレームワークは,様々なネットワークアーキテクチャと損失関数を持つ既存のハイパースペクトル画像分類手法に容易に適用できる。
in, up, ksc, houston 2013のデータセットを含む、広く使用されている4つのデータセットに関する広範囲な実験は、既存のメソッドのパフォーマンスを改善し、さらに最先端の技術を実現していることを示している。
コードは、https://github.com/wzzheng/PDML.comで入手できる。
関連論文リスト
- Dual-stage Hyperspectral Image Classification Model with Spectral Supertoken [15.426635239291729]
スーパーピクセルの概念に触発されたDual-stage Spectral Supertoken(DSTC)を紹介する。
DSTCはスペクトル微分に基づく画素クラスタリングを用いて、類似のスペクトル特性を持つグループ画素をスペクトルスーパートーケンに分類する。
適応的に重みを異なるカテゴリに割り当てるクラスプロポーションベースのソフトラベルも提案する。
論文 参考訳(メタデータ) (2024-07-10T01:58:30Z) - A consensus-constrained parsimonious Gaussian mixture model for
clustering hyperspectral images [0.0]
食品エンジニアは、ハイパースペクトル画像を使用して、食品サンプルのタイプと品質を分類する。
これらの手法を訓練するには、各トレーニング画像の各ピクセルにラベルを付ける必要がある。
ハイパースペクトル画像に画素をラベル付けするために, コンセンサス制約付き擬似ガウス混合モデル (ccPGMM) を提案する。
論文 参考訳(メタデータ) (2024-03-05T22:23:43Z) - Learning Invariant Inter-pixel Correlations for Superpixel Generation [12.605604620139497]
学習可能な特徴は、制約付き判別能力を示し、不満足なピクセルグループ化性能をもたらす。
本稿では,不変画素間相関と統計特性を選択的に分離するContentangle Superpixelアルゴリズムを提案する。
4つのベンチマークデータセットの実験結果は、既存の最先端手法に対するアプローチの優位性を示している。
論文 参考訳(メタデータ) (2024-02-28T09:46:56Z) - Semi-supervised segmentation of land cover images using nonlinear
canonical correlation analysis with multiple features and t-SNE [1.7000283696243563]
イメージセグメンテーションはクラスタリングタスクであり、各ピクセルにクラスタラベルが割り当てられる。
本研究では,少数のピクセルのみをラベル付けすることで,半教師付きセグメンテーション手法を提案する。
提案した半教師付きRBF-CCAアルゴリズムは、リモートセンシングされた複数のマルチスペクトル画像に実装されている。
論文 参考訳(メタデータ) (2024-01-22T17:56:07Z) - Augmenting Prototype Network with TransMix for Few-shot Hyperspectral
Image Classification [9.479240476603353]
我々は,数ショットハイパースペクトル画像分類(APNT)のためのTransMixによるプロトタイプネットワークの拡張を提案する。
プロトタイプネットワークをバックボーンとして、トランスフォーマーを特徴抽出器として採用し、画素間関係を学習する。
提案手法は,数発のハイパースペクトル画像分類において,技術性能とロバスト性の向上を実証した。
論文 参考訳(メタデータ) (2024-01-22T06:56:52Z) - OsmLocator: locating overlapping scatter marks with a non-training
generative perspective [48.50108853199417]
重複するマークの配置には、テクスチャの欠如、文脈の少ない情報、ハロー形状、小さなサイズなど、多くの困難がある。
ここでは、クラスタリングに基づく再視覚化の最適化問題として、非学習的生成の観点から定式化する。
特に,異なるマーカーと様々な重なり合いの重なり合いを持つ何百もの散乱画像を含む2023というデータセットを構築し,提案手法を既存の手法と比較した。
論文 参考訳(メタデータ) (2023-12-18T12:39:48Z) - Multi-spectral Class Center Network for Face Manipulation Detection and Localization [52.569170436393165]
顔の操作検出と局所化のための新しいマルチスペクトル・クラス・センター・ネットワーク(MSCCNet)を提案する。
周波数帯域の異なる特徴に基づき、MSCCモジュールはマルチスペクトルクラスセンターを収集し、ピクセル対クラス関係を計算する。
多スペクトルクラスレベルの表現を適用することで、偽画像の操作された領域に敏感な視覚概念の意味情報を抑えることができる。
論文 参考訳(メタデータ) (2023-05-18T08:09:20Z) - Affinity Feature Strengthening for Accurate, Complete and Robust Vessel
Segmentation [48.638327652506284]
血管セグメンテーションは、冠動脈狭窄、網膜血管疾患、脳動脈瘤などの多くの医学的応用において重要である。
コントラストに敏感なマルチスケールアフィニティアプローチを用いて,幾何学的手法と画素単位のセグメンテーション特徴を連成的にモデル化する新しいアプローチであるAFNを提案する。
論文 参考訳(メタデータ) (2022-11-12T05:39:17Z) - Decoupled-and-Coupled Networks: Self-Supervised Hyperspectral Image
Super-Resolution with Subpixel Fusion [67.35540259040806]
サブピクセルレベルのHS超解像フレームワークを提案する。
名前が示すように、DC-Netはまず入力を共通(またはクロスセンサー)とセンサー固有のコンポーネントに分離する。
我々は,CSUネットの裏側に自己教師付き学習モジュールを付加し,素材の整合性を保証し,復元されたHS製品の詳細な外観を向上する。
論文 参考訳(メタデータ) (2022-05-07T23:40:36Z) - ITSELF: Iterative Saliency Estimation fLexible Framework [68.8204255655161]
機密度オブジェクト検出は、画像で最も顕著なオブジェクトを推定する。
我々は,ユーザ定義の仮定をモデルに追加できる,スーパーピクセルベースのITELF(ITSELF)を提案する。
ITSELFを5つのメトリクスと6つのデータセットで2つの最先端の精度推定器と比較する。
論文 参考訳(メタデータ) (2020-06-30T16:51:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。