論文の概要: Modelling of automotive steel fatigue lifetime by machine learning method
- arxiv url: http://arxiv.org/abs/2501.11154v1
- Date: Sun, 19 Jan 2025 19:46:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:26:05.690281
- Title: Modelling of automotive steel fatigue lifetime by machine learning method
- Title(参考訳): 機械学習による自動車用鋼疲労寿命のモデル化
- Authors: Oleh Yasniy, Dmytro Tymoshchuk, Iryna Didych, Nataliya Zagorodna, Olha Malyshevska,
- Abstract要約: この問題は、3.75-1アーキテクチャを持つMLP(Multi-Layer Perceptron)ニューラルネットワークによって解決された。
提案モデルは精度が高く,平均絶対パーセンテージ誤差(MAPE)は0.02%から4.59%であった。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In the current study, the fatigue life of QSTE340TM steel was modelled using a machine learning method, namely, a neural network. This problem was solved by a Multi-Layer Perceptron (MLP) neural network with a 3-75-1 architecture, which allows the prediction of the crack length based on the number of load cycles N, the stress ratio R, and the overload ratio Rol. The proposed model showed high accuracy, with mean absolute percentage error (MAPE) ranging from 0.02% to 4.59% for different R and Rol. The neural network effectively reveals the nonlinear relationships between input parameters and fatigue crack growth, providing reliable predictions for different loading conditions.
- Abstract(参考訳): 本研究では,QSTE340TM鋼の疲労寿命を機械学習,すなわちニューラルネットワークを用いてモデル化した。
この問題はMulti-Layer Perceptron (MLP) ニューラルネットワークの3-75-1アーキテクチャによって解決され,負荷サイクル数N,応力比R,負荷比Rolに基づいてクラック長の予測が可能となった。
提案モデルでは, 平均絶対パーセンテージ誤差 (MAPE) が0.02%から4.59%と高い精度を示した。
ニューラルネットワークは、入力パラメータと疲労き裂成長の間の非線形関係を効果的に明らかにし、異なる負荷条件に対する信頼性の高い予測を提供する。
関連論文リスト
- Parameter Estimation of Long Memory Stochastic Processes with Deep Neural Networks [0.0]
時系列モデルの長いメモリパラメータを推定するために,純粋にディープなニューラルネットワークに基づくアプローチを提案する。
ハースト指数のようなパラメータは、プロセスの長距離依存、粗さ、自己相似性を特徴づけるのに重要である。
論文 参考訳(メタデータ) (2024-10-03T03:14:58Z) - Predicting Resilience with Neural Networks [1.4425878137951238]
レジリエンスエンジニアリングは、システムが破壊的な出来事から生き残り、回復する能力を研究する。
本稿では,システム性能のモデル化と予測のための3つの代替ニューラルネットワーク(NN)アプローチを提案する。
論文 参考訳(メタデータ) (2023-08-11T17:29:49Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - Low-Resource Music Genre Classification with Cross-Modal Neural Model
Reprogramming [129.4950757742912]
ニューラルモデル再プログラミング(NMR)の概念に基づく低リソース(音楽)分類のための事前学習モデルを活用する新しい手法を提案する。
NMRは、凍結した事前学習モデルの入力を変更することにより、ソースドメインからターゲットドメインへの事前学習モデルの再取得を目指している。
実験結果から,大規模データセットに事前学習したニューラルモデルは,この再プログラミング手法を用いて,音楽ジャンルの分類に成功できることが示唆された。
論文 参考訳(メタデータ) (2022-11-02T17:38:33Z) - RAMP-Net: A Robust Adaptive MPC for Quadrotors via Physics-informed
Neural Network [6.309365332210523]
本稿では、単純なODEとデータの一部をトレーニングしたニューラルネットワークを用いて、PINN(RAMP-Net)を介してロバスト適応MPCフレームワークを提案する。
我々は,SOTA回帰に基づく2つのMPC法と比較して,0.5~1.75m/sの追跡誤差を7.8%から43.2%,8.04%から61.5%削減した。
論文 参考訳(メタデータ) (2022-09-19T16:11:51Z) - Bayesian Neural Network Language Modeling for Speech Recognition [59.681758762712754]
長期記憶リカレントニューラルネットワーク(LSTM-RNN)とトランスフォーマーで表される最先端のニューラルネットワーク言語モデル(NNLM)は非常に複雑になりつつある。
本稿では,LSTM-RNN と Transformer LM の基盤となる不確実性を考慮するために,ベイズ学習フレームワークの全体構造を提案する。
論文 参考訳(メタデータ) (2022-08-28T17:50:19Z) - Parameter estimation for WMTI-Watson model of white matter using
encoder-decoder recurrent neural network [0.0]
本研究では,ラットおよびヒト脳のデータセット上でのNLLS,RNN法および多層パーセプトロン(MLP)の性能を評価する。
提案手法は,NLLSよりも計算時間を大幅に短縮できるという利点を示した。
論文 参考訳(メタデータ) (2022-03-01T16:33:15Z) - ES-dRNN: A Hybrid Exponential Smoothing and Dilated Recurrent Neural
Network Model for Short-Term Load Forecasting [1.4502611532302039]
複雑な時系列(TS)のため、短期負荷予測(STLF)は困難である
本稿では,複数の季節性を扱うハイブリッド階層型ディープラーニングモデルを提案する。
指数スムージング(ES)とリカレントニューラルネットワーク(RNN)を組み合わせる。
論文 参考訳(メタデータ) (2021-12-05T19:38:42Z) - Low-bit Quantization of Recurrent Neural Network Language Models Using
Alternating Direction Methods of Multipliers [67.688697838109]
本稿では、乗算器の交互方向法(ADMM)を用いて、スクラッチから量子化RNNLMを訓練する新しい手法を提案する。
2つのタスクの実験から、提案されたADMM量子化は、完全な精度ベースライン RNNLM で最大31倍のモデルサイズ圧縮係数を達成したことが示唆された。
論文 参考訳(メタデータ) (2021-11-29T09:30:06Z) - A Fully Tensorized Recurrent Neural Network [48.50376453324581]
重み付けされたRNNアーキテクチャを導入し、各リカレントセル内の個別の重み付け行列を共同で符号化する。
このアプローチはモデルのサイズを数桁削減するが、通常のRNNと同等あるいは優れた性能を維持している。
論文 参考訳(メタデータ) (2020-10-08T18:24:12Z) - Neural networks with late-phase weights [66.72777753269658]
学習後期に重みのサブセットを組み込むことで,SGDの解をさらに改善できることを示す。
学習の終わりに、重み空間における空間平均を取ることにより、1つのモデルを取得する。
論文 参考訳(メタデータ) (2020-07-25T13:23:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。