論文の概要: A Complement to Neural Networks for Anisotropic Inelasticity at Finite Strains
- arxiv url: http://arxiv.org/abs/2510.04187v1
- Date: Sun, 05 Oct 2025 13:01:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.504389
- Title: A Complement to Neural Networks for Anisotropic Inelasticity at Finite Strains
- Title(参考訳): 有限ひずみにおける異方性非弾性に対するニューラルネットワークの補足
- Authors: Hagen Holthusen, Ellen Kuhl,
- Abstract要約: 本稿では, ニューラルネットワークを物質原理で拡張し, 有限ひずみにおける異方性と非弾性を捉えるモデルを提案する。
鍵要素は散逸を支配する双対ポテンシャルであり、一貫した異方性を持ち、従来の定式化は凸性を必要とすることなく散逸不等式を満足する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a complement to constitutive modeling that augments neural networks with material principles to capture anisotropy and inelasticity at finite strains. The key element is a dual potential that governs dissipation, consistently incorporates anisotropy, and-unlike conventional convex formulations-satisfies the dissipation inequality without requiring convexity. Our neural network architecture employs invariant-based input representations in terms of mixed elastic, inelastic and structural tensors. It adapts Input Convex Neural Networks, and introduces Input Monotonic Neural Networks to broaden the admissible potential class. To bypass exponential-map time integration in the finite strain regime and stabilize the training of inelastic materials, we employ recurrent Liquid Neural Networks. The approach is evaluated at both material point and structural scales. We benchmark against recurrent models without physical constraints and validate predictions of deformation and reaction forces for unseen boundary value problems. In all cases, the method delivers accurate and stable performance beyond the training regime. The neural network and finite element implementations are available as open-source and are accessible to the public via https://doi.org/10.5281/zenodo.17199965.
- Abstract(参考訳): 本稿では, ニューラルネットワークを材料原理で拡張し, 有限ひずみにおける異方性と非弾性を捉える構成的モデリングの補完手法を提案する。
鍵となる要素は、散逸を支配し、一貫して異方性を取り込む双対ポテンシャルであり、従来の凸の定式化とは違って、凸性を必要としない散逸不等式を満足する。
我々のニューラルネットワークアーキテクチャは、混合弾性、非弾性、構造テンソルの観点で不変な入力表現を用いる。
入力凸ニューラルネットワークに適応し、許容可能なポテンシャルクラスを拡張するために入力単調ニューラルネットワークを導入する。
有限ひずみ状態における指数写像時間積分を回避し、非弾性材料のトレーニングを安定化するために、リカレントな液体ニューラルネットワークを用いる。
アプローチは材料点と構造スケールの両方で評価される。
物理制約のない繰り返しモデルに対してベンチマークを行い、未確認境界値問題に対する変形および反応力の予測を検証した。
いずれの場合も、この方法はトレーニング体制を超えて正確で安定したパフォーマンスを提供する。
ニューラルネットワークと有限要素の実装はオープンソースとして利用可能であり、https://doi.org/10.5281/zenodo.17 199965を介して一般公開されている。
関連論文リスト
- Can KAN CANs? Input-convex Kolmogorov-Arnold Networks (KANs) as hyperelastic constitutive artificial neural networks (CANs) [0.0]
我々は法則を学ぶための新しいタイプのモデルを提案する。
訓練可能な物質行動です
結果として得られるモデルはどちらもコンパクトなハイパートレインブル解釈である。
関係解析的圧縮性
ICKANは多様なひずみ状態の応力-sモデルを正確に捉えることができる。
論文 参考訳(メタデータ) (2025-03-07T17:42:24Z) - Gibbs-Duhem-Informed Neural Networks for Binary Activity Coefficient
Prediction [45.84205238554709]
本稿では,Gibs-Duhem-informed Neural Network を用いて,様々な組成における二成分活性係数の予測を行う。
ニューラルネットワークの学習における損失関数にギブス・デュヘム方程式を明示的に含んでいる。
論文 参考訳(メタデータ) (2023-05-31T07:36:45Z) - Dynamics of Finite Width Kernel and Prediction Fluctuations in Mean
Field Neural Networks [47.73646927060476]
広義だが有限な特徴学習ニューラルネットワークにおける有限幅効果のダイナミクスを解析する。
我々の結果は、特徴学習の強みにおいて非摂動的である。
論文 参考訳(メタデータ) (2023-04-06T23:11:49Z) - On the Intrinsic Structures of Spiking Neural Networks [66.57589494713515]
近年、時間依存データやイベント駆動データを扱う大きな可能性から、SNNへの関心が高まっている。
スパイキング計算における本質的な構造の影響を総合的に調査する研究が数多く行われている。
この研究はSNNの本質的な構造を深く掘り下げ、SNNの表現性への影響を解明する。
論文 参考訳(メタデータ) (2022-06-21T09:42:30Z) - NN-EUCLID: deep-learning hyperelasticity without stress data [0.0]
本稿では,物理一貫性のあるディープニューラルネットワークを用いた超弾性法則の教師なし学習手法を提案する。
応力-ひずみを仮定する教師付き学習とは対照的に,本手法は実測可能な全弾性場変位と大域的力可用性データのみを用いる。
論文 参考訳(メタデータ) (2022-05-04T13:54:54Z) - Latent Equilibrium: A unified learning theory for arbitrarily fast
computation with arbitrarily slow neurons [0.7340017786387767]
遅いコンポーネントのネットワークにおける推論と学習のための新しいフレームワークであるLatent Equilibriumを紹介する。
我々は, ニューロンとシナプスのダイナミクスを, 将来的なエネルギー関数から導出する。
本稿では,大脳皮質微小循環の詳細なモデルに我々の原理を適用する方法について述べる。
論文 参考訳(メタデータ) (2021-10-27T16:15:55Z) - Physical Constraint Embedded Neural Networks for inference and noise
regulation [0.0]
ニューラルネットワークに偶数ノード対称性と保存則を埋め込む方法を提案する。
先行知識を使わずに正確に対称性を推測できることを実証する。
物理拘束型組込みニューラルネットワークの雑音耐性特性を強調した。
論文 参考訳(メタデータ) (2021-05-19T14:07:20Z) - Gradient Starvation: A Learning Proclivity in Neural Networks [97.02382916372594]
グラディエント・スターベーションは、タスクに関連する機能のサブセットのみをキャプチャすることで、クロスエントロピー損失を最小化するときに発生する。
この研究は、ニューラルネットワークにおけるそのような特徴不均衡の出現に関する理論的説明を提供する。
論文 参考訳(メタデータ) (2020-11-18T18:52:08Z) - Generalization bound of globally optimal non-convex neural network
training: Transportation map estimation by infinite dimensional Langevin
dynamics [50.83356836818667]
本稿では,ディープラーニングの最適化を一般化誤差と関連づけて解析する理論フレームワークを提案する。
ニューラルネットワーク最適化分析のための平均場理論やニューラル・タンジェント・カーネル理論のような既存のフレームワークは、そのグローバル収束を示すために、ネットワークの無限幅の限界を取る必要がある。
論文 参考訳(メタデータ) (2020-07-11T18:19:50Z) - ResiliNet: Failure-Resilient Inference in Distributed Neural Networks [56.255913459850674]
ResiliNetは、分散ニューラルネットワークにおいて物理ノード障害に耐性を持たせるためのスキームである。
Failoutは、ドロップアウトを使用したトレーニング中の物理ノード障害条件をシミュレートし、分散ニューラルネットワークのレジリエンスを改善するように設計されている。
論文 参考訳(メタデータ) (2020-02-18T05:58:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。