論文の概要: Machine learning and atomic layer deposition: predicting saturation
times from reactor growth profiles using artificial neural networks
- arxiv url: http://arxiv.org/abs/2205.08378v1
- Date: Tue, 10 May 2022 23:18:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-22 11:15:40.826417
- Title: Machine learning and atomic layer deposition: predicting saturation
times from reactor growth profiles using artificial neural networks
- Title(参考訳): 機械学習と原子層堆積:ニューラルネットワークを用いた原子炉成長プロファイルからの飽和時間予測
- Authors: Angel Yanguas-Gil and Jeffrey W. Elam
- Abstract要約: 反応器の異なる地点で測定された線量時間と厚さ値に基づいて飽和時間を予測するためにニューラルネットワークを訓練するために設計されたデータセットを提案する。
その結果、トレーニングされたニューラルネットワークは、表面運動学に関する事前情報を必要とすることなく、飽和時間を正確に予測できることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work we explore the application of deep neural networks to the
optimization of atomic layer deposition processes based on thickness values
obtained at different points of an ALD reactor. We introduce a dataset designed
to train neural networks to predict saturation times based on the dose time and
thickness values measured at different points of the reactor for a single
experimental condition. We then explore different artificial neural network
configurations, including depth (number of hidden layers) and size (number of
neurons in each layers) to better understand the size and complexity that
neural networks should have to achieve high predictive accuracy. The results
obtained show that trained neural networks can accurately predict saturation
times without requiring any prior information on the surface kinetics. This
provides a viable approach to minimize the number of experiments required to
optimize new ALD processes in a known reactor. However, the datasets and
training procedure depend on the reactor geometry.
- Abstract(参考訳): 本研究では,ald反応器の異なる点における厚み値に基づく原子層堆積プロセスの最適化へのディープニューラルネットワークの適用について検討する。
本研究では,ニューラルネットワークを訓練し,原子炉の異なる地点で測定された線量時間と厚さ値から飽和時間を予測するデータセットを,単一実験条件で導入する。
次に、ニューラルネットワークが高い予測精度を達成するために必要なサイズと複雑さをよりよく理解するために、深さ(隠れ層数)とサイズ(各層内のニューロン数)を含む、さまざまな人工ニューラルネットワークの構成を探索する。
その結果、訓練されたニューラルネットワークは、表面運動学の事前情報を必要とせずに、飽和時間を正確に予測できることがわかった。
これにより、既知の原子炉での新しいaldプロセスを最適化するために必要な実験の数を最小限に抑えることができる。
しかし、データセットと訓練手順は原子炉の幾何学に依存する。
関連論文リスト
- Diffused Redundancy in Pre-trained Representations [98.55546694886819]
事前訓練された表現で機能がどのようにコード化されているか、より詳しく見ていきます。
与えられた層における学習された表現は拡散冗長性を示す。
我々の発見は、事前訓練されたディープニューラルネットワークによって学習された表現の性質に光を当てた。
論文 参考訳(メタデータ) (2023-05-31T21:00:50Z) - Deep Learning Weight Pruning with RMT-SVD: Increasing Accuracy and
Reducing Overfitting [0.0]
ディープニューラルネットワーク(DNN)の重み層のスペクトルをランダム行列理論(RMT)の手法を用いて研究・理解することができる。
本研究では,これらのRTT手法を用いて, DNNの重み付け層から, 特異値分解(SVD)を通して, どれ程の特異値を取り除くべきかを判断する。
MNISTで訓練した単純なDNNモデルについて,その結果を示す。
論文 参考訳(メタデータ) (2023-03-15T23:19:45Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - A predictive physics-aware hybrid reduced order model for reacting flows [65.73506571113623]
反応流問題の解法として,新しいハイブリッド型予測次数モデル (ROM) を提案する。
自由度は、数千の時間的点から、対応する時間的係数を持ついくつかのPODモードへと減少する。
時間係数を予測するために、2つの異なるディープラーニングアーキテクチャがテストされている。
論文 参考訳(メタデータ) (2023-01-24T08:39:20Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Variational Inference for Infinitely Deep Neural Networks [0.4061135251278187]
非有界深度ニューラルネットワーク(UDN)
我々は、無限に深い確率モデルである非有界深度ニューラルネットワーク(UDN)を導入し、その複雑さをトレーニングデータに適用する。
我々はUDNを実データと合成データに基づいて研究する。
論文 参考訳(メタデータ) (2022-09-21T03:54:34Z) - A Local Geometric Interpretation of Feature Extraction in Deep
Feedforward Neural Networks [13.159994710917022]
本稿では, 深部フィードフォワードニューラルネットワークが高次元データから低次元特徴をいかに抽出するかを理解するための局所幾何学的解析法を提案する。
本研究は, 局所幾何学領域において, ニューラルネットワークの一層における最適重みと前層の最適特徴が, この層のベイズ作用によって決定される行列の低ランク近似を構成することを示す。
論文 参考訳(メタデータ) (2022-02-09T18:50:00Z) - Dynamic Neural Diversification: Path to Computationally Sustainable
Neural Networks [68.8204255655161]
訓練可能なパラメータが制限された小さなニューラルネットワークは、多くの単純なタスクに対してリソース効率の高い候補となる。
学習過程において隠れた層内のニューロンの多様性を探索する。
ニューロンの多様性がモデルの予測にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2021-09-20T15:12:16Z) - Deep Learning with a Classifier System: Initial Results [0.0]
本稿では,ディープニューラルネットワークを用いた適応計算が可能な学習分類器システムを用いた最初の結果を示す。
最大予測誤差を達成した後、性能を維持しつつ、重みとユニットの数を自動で削減する。
論文 参考訳(メタデータ) (2021-03-01T16:40:12Z) - A Greedy Algorithm for Quantizing Neural Networks [4.683806391173103]
本稿では,事前学習したニューラルネットワークの重みを定量化するための計算効率のよい新しい手法を提案する。
本手法は,複雑な再学習を必要とせず,反復的に層を定量化する手法である。
論文 参考訳(メタデータ) (2020-10-29T22:53:10Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。