論文の概要: Kernel density estimation-based sampling for neural network
classification
- arxiv url: http://arxiv.org/abs/2110.12644v1
- Date: Mon, 25 Oct 2021 04:59:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 15:18:23.538339
- Title: Kernel density estimation-based sampling for neural network
classification
- Title(参考訳): カーネル密度推定に基づくニューラルネットワーク分類のためのサンプリング
- Authors: Firuz Kamalov, Ashraf Elnagar
- Abstract要約: 不均衡なデータには、機械学習アルゴリズムのバイアスが伴う。
不均衡なデータに対処する一般的な方法の1つは、再サンプリングを通じてデータを人工的にバランスをとることである。
我々は,最近提案されたカーネル密度推定(KDE)サンプリング手法の有効性を,人工ニューラルネットワークの文脈で比較した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Imbalanced data occurs in a wide range of scenarios. The skewed distribution
of the target variable elicits bias in machine learning algorithms. One of the
popular methods to combat imbalanced data is to artificially balance the data
through resampling. In this paper, we compare the efficacy of a recently
proposed kernel density estimation (KDE) sampling technique in the context of
artificial neural networks. We benchmark the KDE sampling method against two
base sampling techniques and perform comparative experiments using 8 datasets
and 3 neural networks architectures. The results show that KDE sampling
produces the best performance on 6 out of 8 datasets. However, it must be used
with caution on image datasets. We conclude that KDE sampling is capable of
significantly improving the performance of neural networks.
- Abstract(参考訳): 不均衡なデータは幅広いシナリオで発生する。
対象変数の歪分布は、機械学習アルゴリズムのバイアスを誘発する。
不均衡なデータと戦う一般的な方法の1つは、再サンプリングを通じてデータを人工的にバランスをとることである。
本稿では,最近提案されたカーネル密度推定(kde)手法の有効性を,ニューラルネットワークの文脈で比較する。
KDEサンプリング手法を2つのベースサンプリング手法と比較し、8つのデータセットと3つのニューラルネットワークアーキテクチャを用いて比較実験を行った。
その結果、KDEサンプリングは8つのデータセットのうち6つで最高の性能が得られることがわかった。
しかし、画像データセットに注意して使用する必要がある。
KDEサンプリングはニューラルネットワークの性能を大幅に向上させることができると結論付けている。
関連論文リスト
- Learning to Discretize Denoising Diffusion ODEs [41.50816120270017]
拡散確率モデル(英: Diffusion Probabilistic Models, DPM)は、様々な領域における競争性能を示す生成モデルである。
本稿では,サンプリングのための最適な時間離散化学習を目的とした軽量フレームワークLD3を提案する。
我々はLD3がサンプリング効率をはるかに低い計算オーバーヘッドで改善できることを解析的かつ実証的に実証した。
論文 参考訳(メタデータ) (2024-05-24T12:51:23Z) - Fast, Distribution-free Predictive Inference for Neural Networks with
Coverage Guarantees [25.798057062452443]
本稿では,予測推論(PI)のための新しい計算効率アルゴリズムを提案する。
データに対する分布的な仮定は不要で、ニューラルネットワークの既存のブートストラップ方式よりも高速に計算できる。
論文 参考訳(メタデータ) (2023-06-11T04:03:58Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - Effective Class-Imbalance learning based on SMOTE and Convolutional
Neural Networks [0.1074267520911262]
不均衡データ(ID)は、機械学習(ML)モデルから満足な結果を得るための問題である。
本稿では,Deep Neural Networks(DNN)とConvolutional Neural Networks(CNN)に基づく手法の有効性を検討する。
信頼性の高い結果を得るために,ランダムにシャッフルしたデータ分布を用いて100回実験を行った。
論文 参考訳(メタデータ) (2022-09-01T07:42:16Z) - Dynamic Ensemble Selection Using Fuzzy Hyperboxes [10.269997499911668]
本稿では,FH-DESと呼ばれるファジィハイパーボックスに基づく動的アンサンブル選択(DES)フレームワークを提案する。
各ハイパーボックスは、2つのデータポイント(MinとMaxのコーナー)のみを使用してサンプルのグループを表現することができる。
それまでの融合法では観測されていなかった分類器の能力を評価するために、初めて誤分類されたサンプルが使用される。
論文 参考訳(メタデータ) (2022-05-20T21:06:46Z) - NeRF in detail: Learning to sample for view synthesis [104.75126790300735]
ニューラルレイディアンス場(NeRF)法は目覚ましい新しいビュー合成を実証している。
この作業では、バニラ粗大なアプローチの明確な制限に対処します -- パフォーマンスに基づいており、手元にあるタスクのエンドツーエンドをトレーニングしていません。
我々は、サンプルの提案と、そのネットワークにおける重要性を学習し、そのニューラルネットワークアーキテクチャに対する複数の代替案を検討し比較する、微分可能なモジュールを導入する。
論文 参考訳(メタデータ) (2021-06-09T17:59:10Z) - Deep Data Density Estimation through Donsker-Varadhan Representation [5.276937617129594]
我々は,深層ニューラルネットワークとドンスカー・バラダン変分法を用いて,KL偏差に基づくデータ密度を簡易かつ効果的に推定する手法を提案する。
本研究では,ドンスカー・バラダン表現におけるデータと一様分布の発散に関する最適批判関数が,データ密度を推定できることを示した。
論文 参考訳(メタデータ) (2021-04-14T03:38:32Z) - Random Features for the Neural Tangent Kernel [57.132634274795066]
完全接続型ReLUネットワークのニューラルタンジェントカーネル(NTK)の効率的な特徴マップ構築を提案する。
得られた特徴の次元は、理論と実践の両方で比較誤差境界を達成するために、他のベースライン特徴マップ構造よりもはるかに小さいことを示しています。
論文 参考訳(メタデータ) (2021-04-03T09:08:12Z) - Statistical model-based evaluation of neural networks [74.10854783437351]
ニューラルネットワーク(NN)の評価のための実験装置を開発する。
このセットアップは、NNs vis-a-vis minimum-mean-square-error (MMSE)パフォーマンス境界のベンチマークに役立つ。
これにより、トレーニングデータサイズ、データ次元、データ幾何学、ノイズ、トレーニング条件とテスト条件のミスマッチの影響をテストできます。
論文 参考訳(メタデータ) (2020-11-18T00:33:24Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z) - Generalized ODIN: Detecting Out-of-distribution Image without Learning
from Out-of-distribution Data [87.61504710345528]
我々は,OoD検出性能を改善しつつ,ニューラルネットワークをOoDデータのチューニングから解放する2つの方法を提案する。
具体的には、信頼性スコアリングと修正された入力前処理法を分離することを提案する。
大規模画像データセットのさらなる解析により、セマンティックシフトと非セマンティックシフトの2種類の分布シフトが有意な差を示すことが示された。
論文 参考訳(メタデータ) (2020-02-26T04:18:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。