論文の概要: Statistical Loss and Analysis for Deep Learning in Hyperspectral Image
Classification
- arxiv url: http://arxiv.org/abs/1912.12385v2
- Date: Wed, 11 Mar 2020 07:01:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-17 12:53:54.894636
- Title: Statistical Loss and Analysis for Deep Learning in Hyperspectral Image
Classification
- Title(参考訳): ハイパースペクトル画像分類における深層学習の統計的損失と解析
- Authors: Zhiqiang Gong, Ping Zhong, Weidong Hu
- Abstract要約: 本研究は,ハイパースペクトル画像から各クラスを統計分布として特徴付ける。
さらに、深層学習のためのサンプルを直接扱うのではなく、分布による新しい統計的損失を生じさせる。
実世界のハイパースペクトル画像に対する実験は、発達した統計的損失の有効性を示す。
- 参考スコア(独自算出の注目度): 13.741109326764658
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays, deep learning methods, especially the convolutional neural networks
(CNNs), have shown impressive performance on extracting abstract and high-level
features from the hyperspectral image. However, general training process of
CNNs mainly considers the pixel-wise information or the samples' correlation to
formulate the penalization while ignores the statistical properties especially
the spectral variability of each class in the hyperspectral image. These
samples-based penalizations would lead to the uncertainty of the training
process due to the imbalanced and limited number of training samples. To
overcome this problem, this work characterizes each class from the
hyperspectral image as a statistical distribution and further develops a novel
statistical loss with the distributions, not directly with samples for deep
learning. Based on the Fisher discrimination criterion, the loss penalizes the
sample variance of each class distribution to decrease the intra-class variance
of the training samples. Moreover, an additional diversity-promoting condition
is added to enlarge the inter-class variance between different class
distributions and this could better discriminate samples from different classes
in hyperspectral image. Finally, the statistical estimation form of the
statistical loss is developed with the training samples through multi-variant
statistical analysis. Experiments over the real-world hyperspectral images show
the effectiveness of the developed statistical loss for deep learning.
- Abstract(参考訳): 現在、深層学習法、特に畳み込みニューラルネットワーク(cnns)は、ハイパースペクトル画像から抽象的かつハイレベルな特徴を抽出することで印象的な性能を示している。
しかしながら、cnnの一般的なトレーニングプロセスは、主にピクセル毎の情報やサンプルの相関を考慮し、ペナリゼーションを定式化する一方で、統計特性、特にハイパースペクトル画像の各クラスのスペクトル変動を無視する。
これらのサンプルに基づくペナル化は、トレーニングサンプルの不均衡と限られた数のトレーニングサンプルによるトレーニングプロセスの不確実性につながる。
この問題を解決するために,高スペクトル画像から各クラスを統計的分布として特徴付け,さらに深層学習用サンプルでは直接ではなく分布による新たな統計的損失を生じさせる。
Fisherの判別基準に基づいて、損失は各クラス分布のサンプル分散をペナルティ化し、トレーニングサンプルのクラス内分散を減少させる。
さらに、異なるクラス分布間のクラス間分散を拡大するために、さらなる多様性促進条件が追加され、ハイパースペクトル画像における異なるクラスからのサンプルの識別がより良くなる。
最後に,多変量統計解析による学習サンプルを用いて,統計的損失の統計的推定形式を開発した。
実世界のハイパースペクトル画像に対する実験は、深層学習において発達した統計的損失の有効性を示す。
関連論文リスト
- Training Class-Imbalanced Diffusion Model Via Overlap Optimization [55.96820607533968]
実世界のデータセットで訓練された拡散モデルは、尾クラスの忠実度が劣ることが多い。
拡散モデルを含む深い生成モデルは、豊富な訓練画像を持つクラスに偏りがある。
本研究では,異なるクラスに対する合成画像の分布の重複を最小限に抑えるために,コントラスト学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-02-16T16:47:21Z) - Class-Balancing Diffusion Models [57.38599989220613]
クラスバランシング拡散モデル(CBDM)は、分散調整正規化器をソリューションとして訓練する。
提案手法は,CIFAR100/CIFAR100LTデータセットで生成結果をベンチマークし,下流認識タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-30T20:00:14Z) - Modeling Uncertain Feature Representation for Domain Generalization [49.129544670700525]
提案手法は,複数の視覚タスクにおけるネットワーク一般化能力を常に改善することを示す。
我々の手法は単純だが有効であり、トレーニング可能なパラメータや損失制約を伴わずにネットワークに容易に統合できる。
論文 参考訳(メタデータ) (2023-01-16T14:25:02Z) - A Learning Based Hypothesis Test for Harmful Covariate Shift [3.1406146587437904]
リスクの高いドメインの機械学習システムは、アウト・オブ・ディストリビューションテストの例で予測をすべきでないことを特定する必要がある。
本研究では、トレーニングデータに同意し、テストデータに同意するように訓練された分類器のアンサンブル間の不一致を利用して、モデルがデプロイ設定から削除されるかどうかを判断する。
論文 参考訳(メタデータ) (2022-12-06T04:15:24Z) - Uncertainty Modeling for Out-of-Distribution Generalization [56.957731893992495]
特徴統計を適切に操作することで、ディープラーニングモデルの一般化能力を向上させることができると論じる。
一般的な手法では、特徴統計を学習した特徴から測定された決定論的値とみなすことが多い。
我々は、学習中に合成された特徴統計を用いて、領域シフトの不確かさをモデル化することにより、ネットワークの一般化能力を向上させる。
論文 参考訳(メタデータ) (2022-02-08T16:09:12Z) - Multi-loss ensemble deep learning for chest X-ray classification [0.8594140167290096]
クラス不均衡は、異常サンプルの数が正常サンプルの数より少ない医療画像分類タスクでよく見られる。
本稿では,DLモデルを訓練し,その性能を多クラス分類設定で解析する新しい損失関数を提案する。
論文 参考訳(メタデータ) (2021-09-29T14:14:04Z) - Free Lunch for Few-shot Learning: Distribution Calibration [10.474018806591397]
キャリブレーション分布から抽出した特徴を用いて学習した単純なロジスティック回帰分類器は、2つのデータセットにおける最先端の精度より優れていることを示す。
論文 参考訳(メタデータ) (2021-01-16T07:58:40Z) - Compressing Large Sample Data for Discriminant Analysis [78.12073412066698]
判別分析フレームワーク内での大きなサンプルサイズに起因する計算問題を考察する。
線形および二次判別分析のためのトレーニングサンプル数を削減するための新しい圧縮手法を提案する。
論文 参考訳(メタデータ) (2020-05-08T05:09:08Z) - Imbalanced Data Learning by Minority Class Augmentation using Capsule
Adversarial Networks [31.073558420480964]
本稿では,2つの同時手法を合体させて,不均衡な画像のバランスを回復する手法を提案する。
我々のモデルでは、生成的および識別的ネットワークは、新しい競争力のあるゲームをする。
カプセルGANの合体は、畳み込みGANと比較して非常に少ないパラメータで重なり合うクラスを認識するのに効果的である。
論文 参考訳(メタデータ) (2020-04-05T12:36:06Z) - When Relation Networks meet GANs: Relation GANs with Triplet Loss [110.7572918636599]
GAN(Generative Adversarial Network)の学習安定性はいまだに悩みの種である
本稿では,判別器のための関係ネットワークアーキテクチャについて検討し,より優れた一般化と安定性を実現する三重項損失を設計する。
ベンチマークデータセットの実験により、提案された関係判別器と新たな損失は、可変視覚タスクに大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-02-24T11:35:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。