論文の概要: A comparison between Recurrent Neural Networks and classical machine
learning approaches In Laser induced breakdown spectroscopy
- arxiv url: http://arxiv.org/abs/2304.08500v1
- Date: Sun, 16 Apr 2023 08:26:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 17:01:00.637458
- Title: A comparison between Recurrent Neural Networks and classical machine
learning approaches In Laser induced breakdown spectroscopy
- Title(参考訳): レーザー誘起分解分光法におけるリカレントニューラルネットワークと古典的機械学習手法の比較
- Authors: Fatemeh Rezaei, Pouriya Khaliliyan, Mohsen Rezaei, Parvin Karimi,
Behnam Ashrafkhani
- Abstract要約: リカレントニューラルネットワークは、異なるノード間の接続を確立するニューラルネットワークのクラスである。
レーザ誘起分解分光法(LIBS)は、異なるリカレントニューラルネットワークアーキテクチャによるアルミニウム合金の定量分析に用いられている。
- 参考スコア(独自算出の注目度): 0.8399688944263843
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recurrent Neural Networks are classes of Artificial Neural Networks that
establish connections between different nodes form a directed or undirected
graph for temporal dynamical analysis. In this research, the laser induced
breakdown spectroscopy (LIBS) technique is used for quantitative analysis of
aluminum alloys by different Recurrent Neural Network (RNN) architecture. The
fundamental harmonic (1064 nm) of a nanosecond Nd:YAG laser pulse is employed
to generate the LIBS plasma for the prediction of constituent concentrations of
the aluminum standard samples. Here, Recurrent Neural Networks based on
different networks, such as Long Short Term Memory (LSTM), Gated Recurrent Unit
(GRU), Simple Recurrent Neural Network (Simple RNN), and as well as Recurrent
Convolutional Networks comprising of Conv-SimpleRNN, Conv-LSTM and Conv-GRU are
utilized for concentration prediction. Then a comparison is performed among
prediction by classical machine learning methods of support vector regressor
(SVR), the Multi Layer Perceptron (MLP), Decision Tree algorithm, Gradient
Boosting Regression (GBR), Random Forest Regression (RFR), Linear Regression,
and k-Nearest Neighbor (KNN) algorithm. Results showed that the machine
learning tools based on Convolutional Recurrent Networks had the best
efficiencies in prediction of the most of the elements among other multivariate
methods.
- Abstract(参考訳): リカレントニューラルネットワーク(Recurrent Neural Networks)は、時間的動的解析のために、異なるノード間の接続を確立するニューラルネットワークのクラスである。
本研究では, レーザ誘起分解分光法(LIBS)を用いて, 異なるリカレントニューラルネットワーク(RNN)アーキテクチャによるアルミニウム合金の定量分析を行う。
ナノ秒Nd:YAGレーザーパルスの基本高調波(1064nm)を用いて、アルミニウム標準試料の構成濃度を予測するためにLIBSプラズマを生成する。
ここでは、long short term memory(lstm)、gated recurrent unit(gru)、simple recurrent neural network(simple rnn)、およびconv-simplernn、conv-lstm、conv-gruからなるrecurrent convolutional networkなどの異なるネットワークに基づくリカレントニューラルネットワークを用いて濃度予測を行う。
次に、svr(support vector regressor)、mlp(multi layer perceptron)、決定木アルゴリズム( decision tree algorithm)、gbr(gradient boosting regression)、rfr(random forest regression)、線形回帰(linear regression)、k-nearest neighbor(knn)アルゴリズムの古典的な機械学習手法による予測の比較を行う。
その結果、畳み込みリカレントネットワークに基づく機械学習ツールは、他の多変量手法における要素のほとんどを予測するのに最適な効率を示した。
関連論文リスト
- Parallel-in-Time Solutions with Random Projection Neural Networks [0.07282584715927627]
本稿では、常微分方程式の解法であるパラレアルの基本的な並列時間法の一つを考察し、ニューラルネットワークを粗いプロパゲータとして採用することにより拡張する。
提案アルゴリズムの収束特性を理論的に解析し,ローレンツ方程式やバーガースの方程式を含むいくつかの例に対して有効性を示す。
論文 参考訳(メタデータ) (2024-08-19T07:32:41Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Properties and Potential Applications of Random Functional-Linked Types
of Neural Networks [81.56822938033119]
ランダム関数リンクニューラルネットワーク(RFLNN)は、深い構造を学習する別の方法を提供する。
本稿では周波数領域の観点からRFLNNの特性について考察する。
本稿では,より優れた性能でBLSネットワークを生成する手法を提案し,ポゾン方程式を解くための効率的なアルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-04-03T13:25:22Z) - Deep Convolutional Learning-Aided Detector for Generalized Frequency
Division Multiplexing with Index Modulation [0.0]
提案手法は、まずゼロフォース検出器(ZF)を用いて受信信号を前処理し、その後、畳み込みニューラルネットワーク(CNN)と完全連結ニューラルネットワーク(FCNN)からなるニューラルネットワークを用いる。
FCNN部は2つの完全に接続された層しか使用せず、複雑さとBER(bit error rate)パフォーマンスのトレードオフをもたらすことができる。
提案したディープ畳み込みニューラルネットワークに基づく検出・復調方式は,ZF検出器よりも高いBER性能を示し,複雑性が増大することが実証されている。
論文 参考訳(メタデータ) (2022-02-06T22:18:42Z) - Low-bit Quantization of Recurrent Neural Network Language Models Using
Alternating Direction Methods of Multipliers [67.688697838109]
本稿では、乗算器の交互方向法(ADMM)を用いて、スクラッチから量子化RNNLMを訓練する新しい手法を提案する。
2つのタスクの実験から、提案されたADMM量子化は、完全な精度ベースライン RNNLM で最大31倍のモデルサイズ圧縮係数を達成したことが示唆された。
論文 参考訳(メタデータ) (2021-11-29T09:30:06Z) - Deep Neural Networks using a Single Neuron: Folded-in-Time Architecture
using Feedback-Modulated Delay Loops [0.0]
本稿では、任意の大きさのディープニューラルネットワークを、複数の時間遅延フィードバックループを持つ単一ニューロンに折り畳む方法を提案する。
本発明の単一ニューロン深部ニューラルネットワークは、単一の非線形性のみを含み、フィードバック信号の調整を適切に調整する。
Folded-in-time DNN(Fit-DNN)と呼ばれる新しい手法は、ベンチマークタスクのセットで有望な性能を示す。
論文 参考訳(メタデータ) (2020-11-19T21:45:58Z) - Connecting Weighted Automata, Tensor Networks and Recurrent Neural
Networks through Spectral Learning [58.14930566993063]
我々は、形式言語と言語学からの重み付き有限オートマトン(WFA)、機械学習で使用されるリカレントニューラルネットワーク、テンソルネットワークの3つのモデル間の接続を提示する。
本稿では,連続ベクトル入力の列上に定義された線形2-RNNに対する最初の証明可能な学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-19T15:28:00Z) - Coupled Oscillatory Recurrent Neural Network (coRNN): An accurate and
(gradient) stable architecture for learning long time dependencies [15.2292571922932]
本稿では,リカレントニューラルネットワークのための新しいアーキテクチャを提案する。
提案するRNNは, 2次常微分方程式系の時間分解に基づく。
実験の結果,提案したRNNは,様々なベンチマークによる最先端技術に匹敵する性能を示した。
論文 参考訳(メタデータ) (2020-10-02T12:35:04Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - The Power of Linear Recurrent Neural Networks [1.124958340749622]
自己回帰線形,すなわち線形活性化リカレントニューラルネットワーク(LRNN)が,任意の時間依存関数f(t)を近似できることを示す。
LRNNは、最小限のユニット数でMSOタスクのこれまでの最先端を上回ります。
論文 参考訳(メタデータ) (2018-02-09T15:35:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。