論文の概要: A robust low data solution: dimension prediction of semiconductor
nanorods
- arxiv url: http://arxiv.org/abs/2010.14111v1
- Date: Tue, 27 Oct 2020 07:51:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 12:33:22.489897
- Title: A robust low data solution: dimension prediction of semiconductor
nanorods
- Title(参考訳): 頑健な低データ解:半導体ナノロッドの次元予測
- Authors: Xiaoli Liu, Yang Xu, Jiali Li, Xuanwei Ong, Salwa Ali Ibrahim, Tonio
Buonassisi, Xiaonan Wang
- Abstract要約: 半導体ナノロッド(NR)の長さ,幅,アスペクト比を正確に予測するために,ロバストディープニューラルネットワークに基づく回帰アルゴリズムを開発した。
深部ニューラルネットワークは、類似した分布を持つ原データと生成データの両方に対して、よく実行される予測を実証した回帰モデルの開発にさらに応用される。
- 参考スコア(独自算出の注目度): 5.389015968413988
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Precise control over dimension of nanocrystals is critical to tune the
properties for various applications. However, the traditional control through
experimental optimization is slow, tedious and time consuming. Herein a robust
deep neural network-based regression algorithm has been developed for precise
prediction of length, width, and aspect ratios of semiconductor nanorods (NRs).
Given there is limited experimental data available (28 samples), a Synthetic
Minority Oversampling Technique for regression (SMOTE-REG) has been employed
for the first time for data generation. Deep neural network is further applied
to develop regression model which demonstrated the well performed prediction on
both the original and generated data with a similar distribution. The
prediction model is further validated with additional experimental data,
showing accurate prediction results. Additionally, Local Interpretable
Model-Agnostic Explanations (LIME) is used to interpret the weight for each
variable, which corresponds to its importance towards the target dimension,
which is approved to be well correlated well with experimental observations.
- Abstract(参考訳): ナノ結晶の寸法の精密制御は、様々な用途の物性を調整するために重要である。
しかし、実験的な最適化による従来の制御は遅く、退屈で時間がかかります。
ここでは、半導体ナノロッド(NR)の長さ、幅、アスペクト比を正確に予測するために、堅牢なディープニューラルネットワークベースの回帰アルゴリズムを開発した。
限られた実験データ(28サンプル)があるため、データ生成に初めてSMOTE-REG(Synthetic Minority Oversampling Technique for regression)が使用されている。
ディープニューラルネットワークは回帰モデルの開発にさらに応用され、同じ分布を持つオリジナルデータと生成されたデータの両方でよく計算された予測を実証する。
予測モデルをさらに実験データで検証し,正確な予測結果を示す。
さらに、各変数の重みを解釈するために、局所解釈可能なモデル非依存説明(lime)が使われ、対象次元に対するその重要性に対応しており、実験的な観察とよく相関することが認められている。
関連論文リスト
- An Investigation on Machine Learning Predictive Accuracy Improvement and Uncertainty Reduction using VAE-based Data Augmentation [2.517043342442487]
深層生成学習は、特定のMLモデルを使用して、既存のデータの基盤となる分布を学習し、実際のデータに似た合成サンプルを生成する。
本研究では,変分オートエンコーダ(VAE)を用いた深部生成モデルを用いて,データ拡張の有効性を評価することを目的とする。
本研究では,拡張データを用いてトレーニングしたディープニューラルネットワーク(DNN)モデルの予測において,データ拡張が精度の向上につながるかどうかを検討した。
論文 参考訳(メタデータ) (2024-10-24T18:15:48Z) - Diffusion posterior sampling for simulation-based inference in tall data settings [53.17563688225137]
シミュレーションベース推論(SBI)は、入力パラメータを所定の観測に関連付ける後部分布を近似することができる。
本研究では、モデルのパラメータをより正確に推測するために、複数の観測値が利用できる、背の高いデータ拡張について考察する。
提案手法を,最近提案した各種数値実験の競合手法と比較し,数値安定性と計算コストの観点から,その優位性を実証した。
論文 参考訳(メタデータ) (2024-04-11T09:23:36Z) - Towards Theoretical Understandings of Self-Consuming Generative Models [56.84592466204185]
本稿では,自己消費ループ内で生成モデルを訓練する新たな課題に取り組む。
我々は,このトレーニングが将来のモデルで学習したデータ分布に与える影響を厳格に評価するための理論的枠組みを構築した。
カーネル密度推定の結果は,混合データトレーニングがエラー伝播に与える影響など,微妙な洞察を与える。
論文 参考訳(メタデータ) (2024-02-19T02:08:09Z) - Semi-Supervised Deep Sobolev Regression: Estimation, Variable Selection
and Beyond [3.782392436834913]
本研究では,半教師付き深部ソボレフ回帰器であるSDOREを提案し,基礎となる回帰関数とその勾配を非パラメトリックに推定する。
我々は、SDOREの収束率を総合的に分析し、回帰関数の最小値の最適値を確立する。
また、重要なドメインシフトが存在する場合でも、関連するプラグイン勾配推定器の収束率を導出する。
論文 参考訳(メタデータ) (2024-01-09T13:10:30Z) - Structured Radial Basis Function Network: Modelling Diversity for
Multiple Hypotheses Prediction [51.82628081279621]
多重モード回帰は非定常過程の予測や分布の複雑な混合において重要である。
構造的放射基底関数ネットワークは回帰問題に対する複数の仮説予測器のアンサンブルとして提示される。
この構造モデルにより, このテッセルレーションを効率よく補間し, 複数の仮説対象分布を近似することが可能であることが証明された。
論文 参考訳(メタデータ) (2023-09-02T01:27:53Z) - Deep Neural Networks for Semiparametric Frailty Models via H-likelihood [0.0]
本稿では、時間-時間データの予測のための新しいディープニューラルネットワークベースの脆弱性(DNN-FM)を提案する。
新しいh-likelihoodモデルの合同推定器は、固定パラメータの最大値と、ランダムな欠陥の最良の非バイアス予測器を提供する。
論文 参考訳(メタデータ) (2023-07-13T06:46:51Z) - Parameter estimation for WMTI-Watson model of white matter using
encoder-decoder recurrent neural network [0.0]
本研究では,ラットおよびヒト脳のデータセット上でのNLLS,RNN法および多層パーセプトロン(MLP)の性能を評価する。
提案手法は,NLLSよりも計算時間を大幅に短縮できるという利点を示した。
論文 参考訳(メタデータ) (2022-03-01T16:33:15Z) - Information Theoretic Structured Generative Modeling [13.117829542251188]
構造生成モデル (Structured Generative Model, SGM) と呼ばれる新しい生成モデルフレームワークが提案され, 簡単な最適化が可能となった。
この実装では、無限のガウス混合モデルを学習するために適合した単一白色ノイズ源への正則入力によって駆動される1つのニューラルネットワークを採用している。
予備的な結果は、SGMがデータ効率と分散、従来のガウス混合モデルと変分混合モデル、および敵ネットワークのトレーニングにおいてMINE推定を著しく改善することを示している。
論文 参考訳(メタデータ) (2021-10-12T07:44:18Z) - Imputation-Free Learning from Incomplete Observations [73.15386629370111]
本稿では,不備な値を含む入力からの推論をインプットなしでトレーニングするIGSGD法の重要性について紹介する。
バックプロパゲーションによるモデルのトレーニングに使用する勾配の調整には強化学習(RL)を用いる。
我々の計算自由予測は、最先端の計算手法を用いて従来の2段階の計算自由予測よりも優れている。
論文 参考訳(メタデータ) (2021-07-05T12:44:39Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - A Bayesian Perspective on Training Speed and Model Selection [51.15664724311443]
モデルのトレーニング速度の測定値を用いて,その限界確率を推定できることを示す。
線形モデルと深部ニューラルネットワークの無限幅限界に対するモデル選択タスクの結果を検証する。
以上の結果から、勾配勾配勾配で訓練されたニューラルネットワークが、一般化する関数に偏りがある理由を説明するための、有望な新たな方向性が示唆された。
論文 参考訳(メタデータ) (2020-10-27T17:56:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。