論文の概要: Method for classifying a noisy Raman spectrum based on a wavelet
transform and a deep neural network
- arxiv url: http://arxiv.org/abs/2009.04078v1
- Date: Wed, 9 Sep 2020 02:31:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 12:14:36.106063
- Title: Method for classifying a noisy Raman spectrum based on a wavelet
transform and a deep neural network
- Title(参考訳): ウェーブレット変換とディープニューラルネットワークに基づく雑音ラマンスペクトルの分類方法
- Authors: Liangrui Pan, Pronthep Pipitsunthonsan, Chalongrat Daengngam,
Sittiporn Channumsin, Suwat Sreesawet, Mitchai Chongcheawchamnan
- Abstract要約: エンジンは2基の主エンジンで構成されている。
1次元ラマンスペクトルを2次元データに変換するためのフレームワークフロントエンドとしてウェーブレット変換を提案する。
最適分類器は、いくつかの従来の機械学習(ML)アルゴリズムとディープラーニング(DL)アルゴリズムを実装することで選択される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a new framework based on a wavelet transform and deep
neural network for identifying noisy Raman spectrum since, in practice, it is
relatively difficult to classify the spectrum under baseline noise and additive
white Gaussian noise environments. The framework consists of two main engines.
Wavelet transform is proposed as the framework front-end for transforming 1-D
noise Raman spectrum to two-dimensional data. This two-dimensional data will be
fed to the framework back-end which is a classifier. The optimum classifier is
chosen by implementing several traditional machine learning (ML) and deep
learning (DL) algorithms, and then we investigated their classification
accuracy and robustness performances. The four MLs we choose included a Naive
Bayes (NB), a Support Vector Machine (SVM), a Random Forest (RF) and a
K-Nearest Neighbor (KNN) where a deep convolution neural network (DCNN) was
chosen for a DL classifier. Noise-free, Gaussian noise, baseline noise, and
mixed-noise Raman spectrums were applied to train and validate the ML and DCNN
models. The optimum back-end classifier was obtained by testing the ML and DCNN
models with several noisy Raman spectrums (10-30 dB noise power). Based on the
simulation, the accuracy of the DCNN classifier is 9% higher than the NB
classifier, 3.5% higher than the RF classifier, 1% higher than the KNN
classifier, and 0.5% higher than the SVM classifier. In terms of robustness to
the mixed noise scenarios, the framework with DCNN back-end showed superior
performance than the other ML back-ends. The DCNN back-end achieved 90%
accuracy at 3 dB SNR while NB, SVM, RF, and K-NN back-ends required 27 dB, 22
dB, 27 dB, and 23 dB SNR, respectively. In addition, in the low-noise test data
set, the F-measure score of the DCNN back-end exceeded 99.1% while the
F-measure scores of the other ML engines were below 98.7%.
- Abstract(参考訳): 本稿では,ベースラインノイズと白色ガウス雑音環境下でのスペクトル分類が比較的困難であるため,ノイズラマンスペクトルを識別するためのウェーブレット変換とディープニューラルネットワークに基づく新しい枠組みを提案する。
このフレームワークは2つのメインエンジンで構成されている。
1次元ラマンスペクトルを2次元データに変換するためのフレームワークフロントエンドとしてウェーブレット変換を提案する。
この2次元データは、分類器であるフレームワークのバックエンドに送られる。
最適な分類器は,従来の機械学習(ml)とディープラーニング(dl)アルゴリズムを実装し,その分類精度とロバスト性について検討した。
私たちが選択した4つのMLには、Naive Bayes(NB)、SVM(Support Vector Machine)、Random Forest(RF)、K-Nearest Neighbor(KNN)があり、DL分類器にはDeep Convolution Neural Network(DCNN)が選ばれた。
MLおよびDCNNモデルの訓練および評価には、ノイズフリー、ガウスノイズ、ベースラインノイズ、混合ノイズラマンスペクトルを適用した。
最適バックエンド分類器は、MLモデルとDCNNモデルを複数のノイズラマンスペクトル(10-30dB)で試験することで得られる。
このシミュレーションに基づいて、DCNN分類器の精度はNB分類器より9%高く、RF分類器より3.5%高く、KNN分類器より1%高く、SVM分類器より0.5%高い。
混合ノイズシナリオに対する堅牢性に関しては、DCNNバックエンドのフレームワークは他のMLバックエンドよりも優れたパフォーマンスを示している。
DCNNバックエンドは3dB SNRで90%精度、NB、SVM、RF、K-NNバックエンドはそれぞれ27dB、22dB、27dB、23dB SNRであった。
さらに、低雑音試験データセットでは、DCNNのバックエンドのF測定スコアは99.1%を超え、他のMLエンジンのF測定スコアは98.7%を下回った。
関連論文リスト
- Entanglement Classification of Arbitrary Three-Qubit States via Artificial Neural Networks [2.715284063484557]
3ビットシステムの絡みを検知・分類する人工知能ニューラルネットワーク(ANN)を設計・実装する。
モデルはランダムに生成された状態のシミュレーションデータセット上で訓練され、検証される。
注目すべきは、密度行列の7つの対角要素をANNに供給するだけで、両方のタスクに対して94%以上の精度が得られることである。
論文 参考訳(メタデータ) (2024-11-18T06:50:10Z) - Resource-Efficient Heartbeat Classification Using Multi-Feature Fusion and Bidirectional LSTM [0.0]
多機能核融合と双方向長短期記憶(Bi-LSTM)を用いた心電図(ECG)を用いた心拍分類の資源効率向上手法を提案する。
このデータセットは、MIT-BIH Arrhythmia Database: Normal (N)、Left Bundle Branch Block (LBBB)、Right Bundle Branch Block (RBBB)、Premature Ventricular Contraction (PVC)、Paced Beat (PB)の5つのオリジナルクラスで構成されている。
論文 参考訳(メタデータ) (2024-05-24T07:53:27Z) - Bayesian Neural Network Language Modeling for Speech Recognition [59.681758762712754]
長期記憶リカレントニューラルネットワーク(LSTM-RNN)とトランスフォーマーで表される最先端のニューラルネットワーク言語モデル(NNLM)は非常に複雑になりつつある。
本稿では,LSTM-RNN と Transformer LM の基盤となる不確実性を考慮するために,ベイズ学習フレームワークの全体構造を提案する。
論文 参考訳(メタデータ) (2022-08-28T17:50:19Z) - Filter-enhanced MLP is All You Need for Sequential Recommendation [89.0974365344997]
オンラインプラットフォームでは、ログされたユーザの行動データはノイズを含まないことは避けられない。
周波数領域の雑音を減衰させる信号処理から,フィルタアルゴリズムのアイデアを借用する。
逐次レコメンデーションタスクのための学習可能なフィルタを備えたオールMLPモデルである textbfFMLP-Rec を提案する。
論文 参考訳(メタデータ) (2022-02-28T05:49:35Z) - Adaptive Nearest Neighbor Machine Translation [60.97183408140499]
kNN-MTは、事前訓練されたニューラルネットワーク翻訳とトークンレベルのk-nearest-neighbor検索を組み合わせる。
従来のkNNアルゴリズムは、ターゲットトークンごとに同じ数の近傍を検索する。
ターゲットトークン毎のk個数を動的に決定する適応的kNN-MTを提案する。
論文 参考訳(メタデータ) (2021-05-27T09:27:42Z) - Denoising Noisy Neural Networks: A Bayesian Approach with Compensation [36.39188653838991]
ノイズニューラルネット(ノイズニューラルネット、Noisy Neural Network)は、ノイズの存在下でのNNの推測と訓練を指す。
本報告では, ノイズや症状から未汚染NN重量を推定する方法について検討する。
論文 参考訳(メタデータ) (2021-05-22T11:51:20Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - Deep Networks for Direction-of-Arrival Estimation in Low SNR [89.45026632977456]
我々は,真の配列多様体行列の変異チャネルデータから学習した畳み込みニューラルネットワーク(CNN)を導入する。
我々は低SNR体制でCNNを訓練し、すべてのSNRでDoAを予測する。
私たちの堅牢なソリューションは、ワイヤレスアレイセンサーから音響マイクロフォンやソナーまで、いくつかの分野に適用できます。
論文 参考訳(メタデータ) (2020-11-17T12:52:18Z) - Depthwise Separable Convolutions Versus Recurrent Neural Networks for
Monaural Singing Voice Separation [17.358040670413505]
我々は歌声分離に重点を置き、RNNアーキテクチャを採用し、RNNをDWS畳み込み(DWS-CNN)に置き換える。
本稿では,DWS-CNNのチャネル数と層数による音源分離性能への影響について検討する。
その結果、RNNをDWS-CNNに置き換えることで、RNNアーキテクチャのパラメータの20.57%しか使用せず、それぞれ1.20、0.06、0.37dBの改善が得られることがわかった。
論文 参考訳(メタデータ) (2020-07-06T12:32:34Z) - Conformer: Convolution-augmented Transformer for Speech Recognition [60.119604551507805]
最近、トランスフォーマーと畳み込みニューラルネットワーク(CNN)に基づくモデルが、自動音声認識(ASR)の有望な結果を示している。
音声認識のための畳み込み拡張変換器,Conformerを提案する。
広く使われているLibriSpeechベンチマークでは、言語モデルを用いずにWERが2.1%/4.3%、テスト/テストの外部言語モデルで1.9%/3.9%を達成した。
論文 参考訳(メタデータ) (2020-05-16T20:56:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。