論文の概要: Supplementation of deep neural networks with simplified physics-based
features to increase model prediction accuracy
- arxiv url: http://arxiv.org/abs/2204.06764v1
- Date: Thu, 14 Apr 2022 05:44:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-15 14:33:43.645356
- Title: Supplementation of deep neural networks with simplified physics-based
features to increase model prediction accuracy
- Title(参考訳): モデル予測精度向上のための物理特性を簡略化したディープニューラルネットワークの補間
- Authors: Nicholus R. Clinkinbeard, Prof. Nicole N. Hashemi
- Abstract要約: STEMアプリケーションの予測モデルを改善するために、補足的な物理ベースの機能がディープニューラルネットワーク(DNN)に導入された。
これらの追加機能は、さまざまな単一層と複数の層に注入され、4つの異なるデータセットサイズでトレーニングされる。
物理強化されたデータが複数の層に注入されると、エラーの33.2%から19.6%、34.9%から19.9%、35.8%から22.4%、および43.0%から28.4%がそれぞれ261、117、60、30のデータセットサイズで達成される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: To improve predictive models for STEM applications, supplemental
physics-based features computed from input parameters are introduced into
single and multiple layers of a deep neural network (DNN). While many studies
focus on informing DNNs with physics through differential equations or
numerical simulation, much may be gained through integration of simplified
relationships. To evaluate this hypothesis, a number of thin rectangular plates
simply-supported on all edges are simulated for five materials. With plate
dimensions and material properties as input features and fundamental natural
frequency as the sole output, predictive performance of a purely data-driven
DNN-based model is compared with models using additional inputs computed from
simplified physical relationships among baseline parameters, namely plate
weight, modulus of rigidity, and shear modulus. To better understand the
benefit to model accuracy, these additional features are injected into various
single and multiple DNN layers, and trained with four different dataset sizes.
When these physics-enhanced models are evaluated against independent data of
the same materials and similar dimensions to the training sets, supplementation
with simplified physics-based parameters provides little reduction in
prediction error over the baseline for models trained with dataset sizes of 60
and greater, although small improvement from 19.3% to 16.1% occurs when trained
with a sparse size of 30. Conversely, notable accuracy gains occur when the
independent test data is of material and dimensions not conforming to the
training set. Specifically, when physics-enhanced data is injected into
multiple DNN layers, reductions in error from 33.2% to 19.6%, 34.9% to 19.9%,
35.8% to 22.4%, and 43.0% to 28.4% are achieved for training dataset sizes of
261, 117, 60, and 30, respectively, demonstrating attainment of a degree of
generalizability.
- Abstract(参考訳): STEMアプリケーションの予測モデルを改善するために、入力パラメータから計算された補足的な物理ベースの特徴をディープニューラルネットワーク(DNN)の単層および複数層に導入する。
多くの研究は微分方程式や数値シミュレーションを通じてDNNに物理を知らせることに焦点を当てているが、多くの研究は単純化された関係の統合によって得られる。
この仮説を評価するために、すべての端に単純に支持された細い矩形板を5つの材料で模擬する。
平板寸法と材料特性を入力特性として, 基本自然周波数を単独出力として, 純粋データ駆動型dnnモデルの予測性能を, 基礎パラメータ, 厚み, 剛性係数, せん断弾性率の簡易な物理関係から計算した追加入力を用いたモデルと比較した。
モデルの精度の利点をよりよく理解するために、これらの追加機能は、様々なシングル層と複数のdnn層に注入され、4つの異なるデータセットサイズでトレーニングされる。
これらの物理エンハンスモデルが、同じ材料およびトレーニングセットと類似した次元の独立データに対して評価されるとき、簡易な物理ベースのパラメータによる補足は、データセットサイズが60以上のトレーニングされたモデルのベースラインよりも予測誤差がほとんど減少しないが、スパースサイズが30のトレーニングで19.3%から16.1%に小さな改善が行われる。
逆に、独立したテストデータがトレーニングセットに適合しない材料と寸法のとき、注目すべき精度が向上する。
具体的には、複数のdnn層に物理エンハンスされたデータを注入すると、トレーニングデータセットサイズ261,117,60,30に対して、エラーの33.2%から19.6%、34.9%から19.9%、35.8%から22.4%、および43.0%から28.4%の低下が達成され、一般化度が達成される。
関連論文リスト
- Large language models, physics-based modeling, experimental measurements: the trinity of data-scarce learning of polymer properties [10.955525128731654]
大規模言語モデル(LLM)は、評価、分析、設計のための高速で正確な物質モデリングパラダイムとして約束される。
データ不足の病理に対処する物理ベースのトレーニングパイプラインを提案する。
論文 参考訳(メタデータ) (2024-07-03T02:57:40Z) - Just How Flexible are Neural Networks in Practice? [89.80474583606242]
ニューラルネットワークは、パラメータを持つ少なくとも多くのサンプルを含むトレーニングセットに適合できると広く信じられている。
しかし実際には、勾配や正規化子など、柔軟性を制限したトレーニング手順によるソリューションしか見つからない。
論文 参考訳(メタデータ) (2024-06-17T12:24:45Z) - Towards Theoretical Understandings of Self-Consuming Generative Models [56.84592466204185]
本稿では,自己消費ループ内で生成モデルを訓練する新たな課題に取り組む。
我々は,このトレーニングが将来のモデルで学習したデータ分布に与える影響を厳格に評価するための理論的枠組みを構築した。
カーネル密度推定の結果は,混合データトレーニングがエラー伝播に与える影響など,微妙な洞察を与える。
論文 参考訳(メタデータ) (2024-02-19T02:08:09Z) - Higher-Order Equivariant Neural Networks for Charge Density Prediction in Materials [3.7655047338409893]
ChargE3Netは、原子系の電子密度を予測するためのE(3)等価グラフニューラルネットワークである。
本稿では,ChargE3Netが分子や材料に対する先行研究よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-12-08T21:56:19Z) - Reusing Pretrained Models by Multi-linear Operators for Efficient
Training [65.64075958382034]
大規模なモデルをスクラッチからトレーニングすることは、通常、かなりの量のリソースを必要とする。
bert2BERT や LiGO といった最近の研究は、大規模なモデルを初期化するために、小さな事前訓練されたモデルを再利用している。
本稿では,対象モデルの各重みを事前学習モデルの全重みに線形に相関させる手法を提案する。
論文 参考訳(メタデータ) (2023-10-16T06:16:47Z) - Deep learning for full-field ultrasonic characterization [7.120879473925905]
本研究では、最近の機械学習の進歩を活用して、物理に基づくデータ分析プラットフォームを構築する。
直接反転と物理インフォームドニューラルネットワーク(PINN)の2つの論理について検討した。
論文 参考訳(メタデータ) (2023-01-06T05:01:05Z) - Human Trajectory Prediction via Neural Social Physics [63.62824628085961]
軌道予測は多くの分野において広く研究され、多くのモデルベースおよびモデルフリーな手法が研究されている。
ニューラル微分方程式モデルに基づく新しい手法を提案する。
我々の新しいモデル(ニューラル社会物理学またはNSP)は、学習可能なパラメータを持つ明示的な物理モデルを使用するディープニューラルネットワークである。
論文 参考訳(メタデータ) (2022-07-21T12:11:18Z) - Mixed Effects Neural ODE: A Variational Approximation for Analyzing the
Dynamics of Panel Data [50.23363975709122]
パネルデータ解析に(固定・ランダムな)混合効果を取り入れたME-NODEという確率モデルを提案する。
我々は、Wong-Zakai定理によって提供されるSDEの滑らかな近似を用いて、我々のモデルを導出できることを示す。
次に、ME-NODEのためのエビデンスに基づく下界を導出し、(効率的な)トレーニングアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-02-18T22:41:51Z) - Semi-supervised physics guided deep learning framework for predicting
the I-V characteristics of GAN HEMT [0.0]
このフレームワークは本質的に汎用的であり、その振る舞いが知られている限り、他の研究分野の現象をモデル化するために適用することができる。
窒化ガリウム系高電子移動トランジスタ(GaN HEMT)のI-V特性を予測する半教師付き物理誘導ニューラルネットワーク(SPGNN)が開発された。
SPGNNは、目に見えない状況であっても、従来のニューラルネットワーク(TNN)と同じような、あるいは優れたパフォーマンスを達成するために、トレーニングデータの要求を80%以上削減する。
論文 参考訳(メタデータ) (2021-10-20T18:48:50Z) - MoEfication: Conditional Computation of Transformer Models for Efficient
Inference [66.56994436947441]
トランスフォーマーベースの事前学習言語モデルは、パラメータ容量が大きいため、ほとんどのNLPタスクにおいて優れた性能を実現することができるが、計算コストも大きい。
スパースアクティベーション現象に基づく条件計算により,大規模モデル推論を高速化する。
そこで本研究では,モデルサイズが等しいMoE(Mix-of-experts)バージョン,すなわちMoEficationに変換することを提案する。
論文 参考訳(メタデータ) (2021-10-05T02:14:38Z) - Transfer Learning with Convolutional Networks for Atmospheric Parameter
Retrieval [14.131127382785973]
MetOp衛星シリーズに搭載された赤外線音波干渉計(IASI)は、数値気象予測(NWP)に重要な測定値を提供する
IASIが提供する生データから正確な大気パラメータを取得することは大きな課題であるが、NWPモデルでデータを使用するには必要である。
本研究では,iasiデータから抽出した特徴を,低い高度で異なる物理変数を予測するように設計された別の統計手法への入力として使用できることを示す。
論文 参考訳(メタデータ) (2020-12-09T09:28:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。