論文の概要: Sobolev training of thermodynamic-informed neural networks for smoothed
elasto-plasticity models with level set hardening
- arxiv url: http://arxiv.org/abs/2010.11265v1
- Date: Thu, 15 Oct 2020 22:43:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 04:55:16.505872
- Title: Sobolev training of thermodynamic-informed neural networks for smoothed
elasto-plasticity models with level set hardening
- Title(参考訳): 弾塑性平滑化モデルのための熱力学インフォームニューラルネットワークのソボレフトレーニング
- Authors: Nikolaos N. Vlassis and WaiChing Sun
- Abstract要約: 本研究では, 可視成分を用いた平滑な弾塑性モデルの学習を目的としたディープラーニングフレームワークを提案する。
収率関数を進化レベル集合として再キャストすることにより、ハミルトン・ヤコビ方程式の解を予測する機械学習手法を導入する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a deep learning framework designed to train smoothed
elastoplasticity models with interpretable components, such as a smoothed
stored elastic energy function, a yield surface, and a plastic flow that are
evolved based on a set of deep neural network predictions. By recasting the
yield function as an evolving level set, we introduce a machine learning
approach to predict the solutions of the Hamilton-Jacobi equation that governs
the hardening mechanism. This machine learning hardening law may recover
classical hardening models and discover new mechanisms that are otherwise very
difficult to anticipate and hand-craft. This treatment enables us to use
supervised machine learning to generate models that are thermodynamically
consistent, interpretable, but also exhibit excellent learning capacity. Using
a 3D FFT solver to create a polycrystal database, numerical experiments are
conducted and the implementations of each component of the models are
individually verified. Our numerical experiments reveal that this new approach
provides more robust and accurate forward predictions of cyclic stress paths
than these obtained from black-box deep neural network models such as a
recurrent GRU neural network, a 1D convolutional neural network, and a
multi-step feedforward model.
- Abstract(参考訳): 本研究では,スムーズな弾性エネルギー関数,収率面,深層ニューラルネットワーク予測に基づいて進化する塑性流など,解釈可能な成分を用いた弾塑性モデルの学習を目的としたディープラーニングフレームワークを提案する。
収率関数を進化レベル集合として再キャストすることにより、ハードニング機構を支配するハミルトン・ヤコビ方程式の解を予測する機械学習手法を導入する。
この機械学習のハードニング法則は、古典的なハードニングモデルを回復し、予測と手工芸が非常に難しい新しいメカニズムを発見できる。
この処理により、教師付き機械学習を使用して、熱力学的に一貫性があり、解釈可能で、優れた学習能力を持つモデルを生成することができる。
3次元fftソルバを用いて多結晶データベースを作成し, 数値実験を行い, モデルの各成分の実装を個別に検証した。
数値実験により, この手法は, 繰り返しニューラルネットワーク, 1次元畳み込みニューラルネットワーク, 多段階フィードフォワードモデルなどのブラックボックス深層ニューラルネットワークモデルより, よりロバストで高精度な, 周期的応力経路の予測を可能にすることが明らかになった。
関連論文リスト
- Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - Physics-Informed Neural Networks with Hard Linear Equality Constraints [9.101849365688905]
本研究は,線形等式制約を厳格に保証する物理インフォームドニューラルネットワークKKT-hPINNを提案する。
溶融タンク炉ユニット, 抽出蒸留サブシステム, 化学プラントのアスペンモデル実験により, このモデルが予測精度をさらに高めることを示した。
論文 参考訳(メタデータ) (2024-02-11T17:40:26Z) - Extreme sparsification of physics-augmented neural networks for
interpretable model discovery in mechanics [0.0]
本稿では,L0$-regularizationのスムーズなバージョンを用いて,正規化された物理拡張ニューラルネットワークモデルを訓練することを提案する。
本手法は, 可圧縮・非圧縮熱力学, 降伏関数, 弾塑性の硬化モデルに対して, 解釈可能かつ信頼性の高いモデルが得られることを示す。
論文 参考訳(メタデータ) (2023-10-05T16:28:58Z) - On the Trade-off Between Efficiency and Precision of Neural Abstraction [62.046646433536104]
ニューラル抽象化は、最近、複雑な非線形力学モデルの形式近似として導入されている。
我々は形式的帰納的合成法を用いて、これらのセマンティクスを用いた動的モデルをもたらすニューラル抽象化を生成する。
論文 参考訳(メタデータ) (2023-07-28T13:22:32Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - Sparse deep neural networks for modeling aluminum electrolysis dynamics [0.5257115841810257]
我々は、アルミニウム電解シミュレータのシステムダイナミクスをモデル化するためにスパースニューラルネットワークを訓練する。
スパースモデル構造は、対応する高密度ニューラルネットワークと比較して、モデル複雑さを著しく低減する。
実験により、スパースモデルが高密度ニューラルネットワークよりも小さなトレーニングセットからより一般化されることが示されている。
論文 参考訳(メタデータ) (2022-09-13T09:11:50Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - On Energy-Based Models with Overparametrized Shallow Neural Networks [44.74000986284978]
エネルギーベースモデル(EBM)は、ジェネレーションモデリングの強力なフレームワークです。
この研究では、浅いニューラルネットワークに焦点を当てます。
我々は、いわゆる「アクティブ」体制で訓練されたモデルが、関連する「怠慢」またはカーネル体制に対して統計的に有利であることを示す。
論文 参考訳(メタデータ) (2021-04-15T15:34:58Z) - Physics-based polynomial neural networks for one-shot learning of
dynamical systems from one or a few samples [0.0]
本論文は, 単純な振り子と世界最大規模のX線源の双方について, 実測結果について述べる。
提案手法により, ノイズ, 制限, 部分的な観測から複雑な物理を復元することができることが実証された。
論文 参考訳(メタデータ) (2020-05-24T09:27:10Z) - Flexible Transmitter Network [84.90891046882213]
現在のニューラルネットワークはMPモデルに基づいて構築されており、通常はニューロンを他のニューロンから受信した信号の実際の重み付け集約上での活性化関数の実行として定式化する。
本稿では,フレキシブル・トランスミッタ(FT)モデルを提案する。
本稿では、最も一般的な完全接続型フィードフォワードアーキテクチャ上に構築された、フレキシブルトランスミッタネットワーク(FTNet)について述べる。
論文 参考訳(メタデータ) (2020-04-08T06:55:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。