論文の概要: Polyconvex Physics-Augmented Neural Network Constitutive Models in Principal Stretches
- arxiv url: http://arxiv.org/abs/2503.00575v1
- Date: Sat, 01 Mar 2025 17:55:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:13:19.850511
- Title: Polyconvex Physics-Augmented Neural Network Constitutive Models in Principal Stretches
- Title(参考訳): 主ストレッチにおける多凸物理強化ニューラルネットワーク構成モデル
- Authors: Adrian Buganza Tepole, Asghar Jadoon, Manuel Rausch, Jan N. Fuhg,
- Abstract要約: 凸関数は二階対称関数で記述できることを示す。
モデルが任意の物質を捕獲する能力は, 合成データと実験データを用いて実証した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Accurate constitutive models of soft materials are crucial for understanding their mechanical behavior and ensuring reliable predictions in the design process. To this end, scientific machine learning research has produced flexible and general material model architectures that can capture the behavior of a wide range of materials, reducing the need for expert-constructed closed-form models. The focus has gradually shifted towards embedding physical constraints in the network architecture to regularize these over-parameterized models. Two popular approaches are input convex neural networks (ICNN) and neural ordinary differential equations (NODE). A related alternative has been the generalization of closed-form models, such as sparse regression from a large library. Remarkably, all prior work using ICNN or NODE uses the invariants of the Cauchy-Green tensor and none uses the principal stretches. In this work, we construct general polyconvex functions of the principal stretches in a physics-aware deep-learning framework and offer insights and comparisons to invariant-based formulations. The framework is based on recent developments to characterize polyconvex functions in terms of convex functions of the right stretch tensor $\mathbf{U}$, its cofactor $\text{cof}\mathbf{U}$, and its determinant $J$. Any convex function of a symmetric second-order tensor can be described with a convex and symmetric function of its eigenvalues. Thus, we first describe convex functions of $\mathbf{U}$ and $\text{cof}\mathbf{U}$ in terms of their respective eigenvalues using deep Holder sets composed with ICNN functions. A third ICNN takes as input $J$ and the two convex functions of $\mathbf{U}$ and $\text{cof}\mathbf{U}$, and returns the strain energy as output. The ability of the model to capture arbitrary materials is demonstrated using synthetic and experimental data.
- Abstract(参考訳): ソフトマテリアルの正確な構成モデルは、その機械的挙動を理解し、設計プロセスにおける信頼性の高い予測を保証するために不可欠である。
この目的のために、科学機械学習の研究は、幅広い素材の挙動を捉え、専門家が構築したクローズドフォームモデルの必要性を減らす、柔軟で一般的な物質モデルアーキテクチャを生み出した。
ネットワークアーキテクチャに物理的制約を埋め込んで、これらの過度なパラメータ化モデルを標準化する方向に徐々に焦点が移っている。
2つの一般的なアプローチは、入力凸ニューラルネットワーク(ICNN)とニューラル常微分方程式(NODE)である。
関連する別の選択肢は、大きなライブラリからのスパース回帰のような閉形式モデルの一般化である。
興味深いことに、ICNN や NODE を使った以前のすべての研究はコーシー・グリーンテンソルの不変量を使用し、主展開は使用しない。
本研究では,物理を意識したディープラーニングフレームワークにおいて,主伸長の一般的な多凸関数を構築し,不変量に基づく定式化との比較と洞察を提供する。
このフレームワークは、右ストレッチテンソル$\mathbf{U}$、その補因子$\text{cof}\mathbf{U}$、およびその決定式$J$の凸関数を特徴付ける最近の発展に基づいている。
対称二階テンソルの凸函数は、その固有値の凸と対称関数で記述することができる。
したがって、まず、ICNN関数からなるディープホルダー集合を用いて各固有値の項で $\mathbf{U}$ と $\text{cof}\mathbf{U}$ の凸関数を記述する。
第3のICNNは入力$J$と$\mathbf{U}$と$\text{cof}\mathbf{U}$の2つの凸関数を取り、出力としてひずみエネルギーを返す。
モデルが任意の物質を捕獲する能力は, 合成データと実験データを用いて実証した。
関連論文リスト
- DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Unveiling Induction Heads: Provable Training Dynamics and Feature Learning in Transformers [54.20763128054692]
我々は,2層変換器が$n$-gramのマルコフ連鎖データ上でICLを実行するためにどのように訓練されているかを検討する。
クロスエントロピー ICL 損失に対する勾配流が極限モデルに収束することを証明する。
論文 参考訳(メタデータ) (2024-09-09T18:10:26Z) - Scaling and renormalization in high-dimensional regression [72.59731158970894]
本稿では,様々な高次元リッジ回帰モデルの訓練および一般化性能の簡潔な導出について述べる。
本稿では,物理と深層学習の背景を持つ読者を対象に,これらのトピックに関する最近の研究成果の紹介とレビューを行う。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - Quantized Fourier and Polynomial Features for more Expressive Tensor
Network Models [9.18287948559108]
モデル重みを過度にパラメータ化されたテンソルネットワークに制約することで,特徴量に存在するテンソル構造を利用する。
同じ数のモデルパラメータに対して、結果の量子化モデルは、その非量子化モデルとは対照的に、VC次元に高いバウンドを持つことを示す。
論文 参考訳(メタデータ) (2023-09-11T13:18:19Z) - Distribution learning via neural differential equations: a nonparametric
statistical perspective [1.4436965372953483]
この研究は、確率変換によって訓練されたODEモデルによる分布学習のための最初の一般統計収束解析を確立する。
後者はクラス $mathcal F$ の$C1$-metric entropy で定量化できることを示す。
次に、この一般フレームワークを$Ck$-smoothターゲット密度の設定に適用し、関連する2つの速度場クラスに対する最小最適収束率を$mathcal F$:$Ck$関数とニューラルネットワークに設定する。
論文 参考訳(メタデータ) (2023-09-03T00:21:37Z) - FAENet: Frame Averaging Equivariant GNN for Materials Modeling [123.19473575281357]
データ変換による任意のモデルE(3)-同変や不変化を実現するために,フレームアラグリング(SFA)に依存したフレキシブルなフレームワークを導入する。
本手法の有効性を理論的および実験的に証明し, 材料モデリングにおける精度と計算スケーラビリティを実証する。
論文 参考訳(メタデータ) (2023-04-28T21:48:31Z) - Neural Implicit Manifold Learning for Topology-Aware Density Estimation [15.878635603835063]
現在の生成モデルは、ニューラルネットワークを介して$m$次元の潜在変数をマッピングすることで、$mathcalM$を学ぶ。
我々のモデルは、プッシュフォワードモデルよりも複雑なトポロジーを持つ多様体支持分布を正確に学習できることが示される。
論文 参考訳(メタデータ) (2022-06-22T18:00:00Z) - Fundamental tradeoffs between memorization and robustness in random
features and neural tangent regimes [15.76663241036412]
モデルがトレーニングのごく一部を記憶している場合、そのソボレフ・セミノルムは低い有界であることを示す。
実験によって初めて、(iv)ミンノルム補間器の堅牢性における多重発色現象が明らかになった。
論文 参考訳(メタデータ) (2021-06-04T17:52:50Z) - Linear Dilation-Erosion Perceptron Trained Using a Convex-Concave
Procedure [1.3706331473063877]
本稿では, 線形変換を適用したテキストリニア・ディレーション・エロージョン・パーセプトロン(ell$-DEP)について述べる。
いくつかの分類問題を用いて,$ell$-DEPモデルと他の機械学習手法との比較を行った。
論文 参考訳(メタデータ) (2020-11-11T18:37:07Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。