論文の概要: Statistical Loss and Analysis for Deep Learning in Hyperspectral Image
Classification
- arxiv url: http://arxiv.org/abs/1912.12385v2
- Date: Wed, 11 Mar 2020 07:01:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-17 12:53:54.894636
- Title: Statistical Loss and Analysis for Deep Learning in Hyperspectral Image
Classification
- Title(参考訳): ハイパースペクトル画像分類における深層学習の統計的損失と解析
- Authors: Zhiqiang Gong, Ping Zhong, Weidong Hu
- Abstract要約: 本研究は,ハイパースペクトル画像から各クラスを統計分布として特徴付ける。
さらに、深層学習のためのサンプルを直接扱うのではなく、分布による新しい統計的損失を生じさせる。
実世界のハイパースペクトル画像に対する実験は、発達した統計的損失の有効性を示す。
- 参考スコア(独自算出の注目度): 13.741109326764658
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays, deep learning methods, especially the convolutional neural networks
(CNNs), have shown impressive performance on extracting abstract and high-level
features from the hyperspectral image. However, general training process of
CNNs mainly considers the pixel-wise information or the samples' correlation to
formulate the penalization while ignores the statistical properties especially
the spectral variability of each class in the hyperspectral image. These
samples-based penalizations would lead to the uncertainty of the training
process due to the imbalanced and limited number of training samples. To
overcome this problem, this work characterizes each class from the
hyperspectral image as a statistical distribution and further develops a novel
statistical loss with the distributions, not directly with samples for deep
learning. Based on the Fisher discrimination criterion, the loss penalizes the
sample variance of each class distribution to decrease the intra-class variance
of the training samples. Moreover, an additional diversity-promoting condition
is added to enlarge the inter-class variance between different class
distributions and this could better discriminate samples from different classes
in hyperspectral image. Finally, the statistical estimation form of the
statistical loss is developed with the training samples through multi-variant
statistical analysis. Experiments over the real-world hyperspectral images show
the effectiveness of the developed statistical loss for deep learning.
- Abstract(参考訳): 現在、深層学習法、特に畳み込みニューラルネットワーク(cnns)は、ハイパースペクトル画像から抽象的かつハイレベルな特徴を抽出することで印象的な性能を示している。
しかしながら、cnnの一般的なトレーニングプロセスは、主にピクセル毎の情報やサンプルの相関を考慮し、ペナリゼーションを定式化する一方で、統計特性、特にハイパースペクトル画像の各クラスのスペクトル変動を無視する。
これらのサンプルに基づくペナル化は、トレーニングサンプルの不均衡と限られた数のトレーニングサンプルによるトレーニングプロセスの不確実性につながる。
この問題を解決するために,高スペクトル画像から各クラスを統計的分布として特徴付け,さらに深層学習用サンプルでは直接ではなく分布による新たな統計的損失を生じさせる。
Fisherの判別基準に基づいて、損失は各クラス分布のサンプル分散をペナルティ化し、トレーニングサンプルのクラス内分散を減少させる。
さらに、異なるクラス分布間のクラス間分散を拡大するために、さらなる多様性促進条件が追加され、ハイパースペクトル画像における異なるクラスからのサンプルの識別がより良くなる。
最後に,多変量統計解析による学習サンプルを用いて,統計的損失の統計的推定形式を開発した。
実世界のハイパースペクトル画像に対する実験は、深層学習において発達した統計的損失の有効性を示す。
関連論文リスト
- Anisotropic Diffusion Probabilistic Model for Imbalanced Image Classification [8.364943466191933]
非平衡画像分類問題に対する異方性拡散確率モデル(ADPM)を提案する。
我々は,データ分布を用いて,前処理中の異なるクラスサンプルの拡散速度を制御し,逆処理におけるデノイザの分類精度を効果的に向上する。
その結果, 異方性拡散モデルにより, ヘッドクラスの精度を維持しつつ, 希少クラスの分類精度が著しく向上することが確認された。
論文 参考訳(メタデータ) (2024-09-22T04:42:52Z) - CLIP Adaptation by Intra-modal Overlap Reduction [1.2277343096128712]
画像空間におけるモーダル内重なりを埋め込み表現の観点から解析する。
Google Open Imagesデータセットからサンプルのジェネリックセットに軽量アダプタをトレーニングします。
論文 参考訳(メタデータ) (2024-09-17T16:40:58Z) - Training Class-Imbalanced Diffusion Model Via Overlap Optimization [55.96820607533968]
実世界のデータセットで訓練された拡散モデルは、尾クラスの忠実度が劣ることが多い。
拡散モデルを含む深い生成モデルは、豊富な訓練画像を持つクラスに偏りがある。
本研究では,異なるクラスに対する合成画像の分布の重複を最小限に抑えるために,コントラスト学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-02-16T16:47:21Z) - Class-Balancing Diffusion Models [57.38599989220613]
クラスバランシング拡散モデル(CBDM)は、分散調整正規化器をソリューションとして訓練する。
提案手法は,CIFAR100/CIFAR100LTデータセットで生成結果をベンチマークし,下流認識タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-30T20:00:14Z) - Modeling Uncertain Feature Representation for Domain Generalization [49.129544670700525]
提案手法は,複数の視覚タスクにおけるネットワーク一般化能力を常に改善することを示す。
我々の手法は単純だが有効であり、トレーニング可能なパラメータや損失制約を伴わずにネットワークに容易に統合できる。
論文 参考訳(メタデータ) (2023-01-16T14:25:02Z) - A Learning Based Hypothesis Test for Harmful Covariate Shift [3.1406146587437904]
リスクの高いドメインの機械学習システムは、アウト・オブ・ディストリビューションテストの例で予測をすべきでないことを特定する必要がある。
本研究では、トレーニングデータに同意し、テストデータに同意するように訓練された分類器のアンサンブル間の不一致を利用して、モデルがデプロイ設定から削除されるかどうかを判断する。
論文 参考訳(メタデータ) (2022-12-06T04:15:24Z) - Uncertainty Modeling for Out-of-Distribution Generalization [56.957731893992495]
特徴統計を適切に操作することで、ディープラーニングモデルの一般化能力を向上させることができると論じる。
一般的な手法では、特徴統計を学習した特徴から測定された決定論的値とみなすことが多い。
我々は、学習中に合成された特徴統計を用いて、領域シフトの不確かさをモデル化することにより、ネットワークの一般化能力を向上させる。
論文 参考訳(メタデータ) (2022-02-08T16:09:12Z) - Compressing Large Sample Data for Discriminant Analysis [78.12073412066698]
判別分析フレームワーク内での大きなサンプルサイズに起因する計算問題を考察する。
線形および二次判別分析のためのトレーニングサンプル数を削減するための新しい圧縮手法を提案する。
論文 参考訳(メタデータ) (2020-05-08T05:09:08Z) - Imbalanced Data Learning by Minority Class Augmentation using Capsule
Adversarial Networks [31.073558420480964]
本稿では,2つの同時手法を合体させて,不均衡な画像のバランスを回復する手法を提案する。
我々のモデルでは、生成的および識別的ネットワークは、新しい競争力のあるゲームをする。
カプセルGANの合体は、畳み込みGANと比較して非常に少ないパラメータで重なり合うクラスを認識するのに効果的である。
論文 参考訳(メタデータ) (2020-04-05T12:36:06Z) - When Relation Networks meet GANs: Relation GANs with Triplet Loss [110.7572918636599]
GAN(Generative Adversarial Network)の学習安定性はいまだに悩みの種である
本稿では,判別器のための関係ネットワークアーキテクチャについて検討し,より優れた一般化と安定性を実現する三重項損失を設計する。
ベンチマークデータセットの実験により、提案された関係判別器と新たな損失は、可変視覚タスクに大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-02-24T11:35:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。