論文の概要: Skew Probabilistic Neural Networks for Learning from Imbalanced Data
- arxiv url: http://arxiv.org/abs/2312.05878v1
- Date: Sun, 10 Dec 2023 13:12:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 18:14:56.701629
- Title: Skew Probabilistic Neural Networks for Learning from Imbalanced Data
- Title(参考訳): 不均衡データから学習するスキュー確率型ニューラルネットワーク
- Authors: Shraddha M. Naik, Tanujit Chakraborty, Abdenour Hadid, Bibhas
Chakraborty
- Abstract要約: 本稿では,確率論的ニューラルネットワーク(PNN)とスキュー正規確率カーネルを用いた不均衡なデータ指向手法を提案する。
我々はSkewPNNが、ほとんどの実験環境でバランスの取れたデータセットと不均衡なデータセットの両方に対して、最先端の機械学習手法を大幅に上回っていることを示す。
- 参考スコア(独自算出の注目度): 3.7892198600060945
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Real-world datasets often exhibit imbalanced data distribution, where certain
class levels are severely underrepresented. In such cases, traditional pattern
classifiers have shown a bias towards the majority class, impeding accurate
predictions for the minority class. This paper introduces an imbalanced
data-oriented approach using probabilistic neural networks (PNNs) with a skew
normal probability kernel to address this major challenge. PNNs are known for
providing probabilistic outputs, enabling quantification of prediction
confidence and uncertainty handling. By leveraging the skew normal
distribution, which offers increased flexibility, particularly for imbalanced
and non-symmetric data, our proposed Skew Probabilistic Neural Networks
(SkewPNNs) can better represent underlying class densities. To optimize the
performance of the proposed approach on imbalanced datasets, hyperparameter
fine-tuning is imperative. To this end, we employ a population-based heuristic
algorithm, Bat optimization algorithms, for effectively exploring the
hyperparameter space. We also prove the statistical consistency of the density
estimates which suggests that the true distribution will be approached smoothly
as the sample size increases. Experimental simulations have been conducted on
different synthetic datasets, comparing various benchmark-imbalanced learners.
Our real-data analysis shows that SkewPNNs substantially outperform
state-of-the-art machine learning methods for both balanced and imbalanced
datasets in most experimental settings.
- Abstract(参考訳): 実世界のデータセットは、特定のクラスレベルが著しく過小評価されている不均衡なデータ分布を示すことが多い。
このような場合、伝統的なパターン分類器は多数派に偏りを示し、少数派に対する正確な予測を妨げている。
本稿では,確率論的ニューラルネットワーク(PNN)とスキュー正規確率カーネルを用いた不均衡なデータ指向アプローチを提案する。
PNNは確率的出力を提供することで知られており、予測信頼性と不確実性処理の定量化を可能にしている。
柔軟性の向上,特に不均衡データと非対称データに対するスキュー正規分布の活用により,提案したスキュー確率ニューラルネットワーク(SkewPNN)は,下層のクラス密度をよりよく表現できる。
不均衡データセットに対する提案手法の性能を最適化するには、ハイパーパラメータの微調整が不可欠である。
この目的のために,人口ベースのヒューリスティックアルゴリズムであるbat最適化アルゴリズムを用いて,ハイパーパラメータ空間を効果的に探索する。
また,サンプルサイズが大きくなるにつれて,真の分布が円滑に近づくことを示す密度推定の統計的整合性も証明する。
種々のベンチマーク不均衡学習者を比較し,異なる合成データセットを用いて実験シミュレーションを行った。
我々の実データ分析によると、SkewPNNは、ほとんどの実験環境でバランスの取れたデータセットと不均衡なデータセットの両方に対して、最先端の機械学習手法を大幅に上回っている。
関連論文リスト
- Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Probabilistic Neural Networks (PNNs) for Modeling Aleatoric Uncertainty
in Scientific Machine Learning [2.348041867134616]
本稿では,確率論的ニューラルネットワーク(PNN)を用いてアレータティック不確実性をモデル化する。
PNNはターゲット変数の確率分布を生成し、回帰シナリオにおける予測平均と間隔の両方を決定できる。
実世界の科学機械学習の文脈では、PNNはR2乗のスコアが0.97に近づき、その予測間隔は0.80に近い高い相関係数を示す。
論文 参考訳(メタデータ) (2024-02-21T17:15:47Z) - Rethinking Semi-Supervised Imbalanced Node Classification from
Bias-Variance Decomposition [18.3055496602884]
本稿では,グラフ構造データ学習のためのグラフニューラルネットワーク(GNN)におけるクラス不均衡問題に対する新しいアプローチを提案する。
提案手法は,不均衡ノード分類とバイアス分散分解を統合し,モデル分散にデータ不均衡を密接に関連付ける理論的枠組みを確立する。
論文 参考訳(メタデータ) (2023-10-28T17:28:07Z) - Amortised Inference in Bayesian Neural Networks [0.0]
Amortized Pseudo-Observation Variational Inference Bayesian Neural Network (APOVI-BNN)を紹介する。
補正された推論は、従来の変分推論によって得られたものと類似または良好な品質であることが示される。
次に、APOVI-BNNをニューラルプロセスファミリーの新たなメンバーと見なす方法について論じる。
論文 参考訳(メタデータ) (2023-09-06T14:02:33Z) - Effective Class-Imbalance learning based on SMOTE and Convolutional
Neural Networks [0.1074267520911262]
不均衡データ(ID)は、機械学習(ML)モデルから満足な結果を得るための問題である。
本稿では,Deep Neural Networks(DNN)とConvolutional Neural Networks(CNN)に基づく手法の有効性を検討する。
信頼性の高い結果を得るために,ランダムにシャッフルしたデータ分布を用いて100回実験を行った。
論文 参考訳(メタデータ) (2022-09-01T07:42:16Z) - coVariance Neural Networks [119.45320143101381]
グラフニューラルネットワーク(GNN)は、グラフ構造化データ内の相互関係を利用して学習する効果的なフレームワークである。
我々は、サンプル共分散行列をグラフとして扱う、共分散ニューラルネットワーク(VNN)と呼ばれるGNNアーキテクチャを提案する。
VNN の性能は PCA ベースの統計手法よりも安定していることを示す。
論文 参考訳(メタデータ) (2022-05-31T15:04:43Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Statistical model-based evaluation of neural networks [74.10854783437351]
ニューラルネットワーク(NN)の評価のための実験装置を開発する。
このセットアップは、NNs vis-a-vis minimum-mean-square-error (MMSE)パフォーマンス境界のベンチマークに役立つ。
これにより、トレーニングデータサイズ、データ次元、データ幾何学、ノイズ、トレーニング条件とテスト条件のミスマッチの影響をテストできます。
論文 参考訳(メタデータ) (2020-11-18T00:33:24Z) - Balance-Subsampled Stable Prediction [55.13512328954456]
本稿では, 分数分解設計理論に基づく新しいバランスサブサンプル安定予測法を提案する。
設計理論解析により,提案手法は分布シフトによって誘導される予測器間の共起効果を低減できることを示した。
合成および実世界の両方のデータセットに関する数値実験により、BSSPアルゴリズムは未知のテストデータ間で安定した予測を行うためのベースライン法を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2020-06-08T07:01:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。