論文の概要: COMMET: orders-of-magnitude speed-up in finite element method via batch-vectorized neural constitutive updates
- arxiv url: http://arxiv.org/abs/2510.00884v1
- Date: Wed, 01 Oct 2025 13:31:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 14:32:17.208576
- Title: COMMET: orders-of-magnitude speed-up in finite element method via batch-vectorized neural constitutive updates
- Title(参考訳): COMMET: バッチベクトル化ニューラル構成更新による有限要素法におけるオーダー・オブ・マグニチュード・スピードアップ
- Authors: Benjamin Alheit, Mathias Peirlinck, Siddhant Kumar,
- Abstract要約: アーキテクチャを再設計し,高コスト更新を高速化するオープンソース有限要素フレームワークを導入する。
FE COMMETは、バッチ化およびベクトル化評価をサポートする新しいアセンブリアルゴリズム、自動微分に取って代わる計算グラフ最適化デリバティブ、MPIによる分散メモリ並列性をサポートする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Constitutive evaluations often dominate the computational cost of finite element (FE) simulations whenever material models are complex. Neural constitutive models (NCMs) offer a highly expressive and flexible framework for modeling complex material behavior in solid mechanics. However, their practical adoption in large-scale FE simulations remains limited due to significant computational costs, especially in repeatedly evaluating stress and stiffness. NCMs thus represent an extreme case: their large computational graphs make stress and stiffness evaluations prohibitively expensive, restricting their use to small-scale problems. In this work, we introduce COMMET, an open-source FE framework whose architecture has been redesigned from the ground up to accelerate high-cost constitutive updates. Our framework features a novel assembly algorithm that supports batched and vectorized constitutive evaluations, compute-graph-optimized derivatives that replace automatic differentiation, and distributed-memory parallelism via MPI. These advances dramatically reduce runtime, with speed-ups exceeding three orders of magnitude relative to traditional non-vectorized automatic differentiation-based implementations. While we demonstrate these gains primarily for NCMs, the same principles apply broadly wherever for-loop based assembly or constitutive updates limit performance, establishing a new standard for large-scale, high-fidelity simulations in computational mechanics.
- Abstract(参考訳): 構成的評価は、物質モデルが複雑であれば、有限要素(FE)シミュレーションの計算コストを支配することが多い。
ニューラルネットワーク構成モデル(NCM)は、固体力学における複雑な物質挙動をモデル化するための、非常に表現力が高く柔軟なフレームワークを提供する。
しかし、大規模な FE シミュレーションにおける実践的採用は、特に応力と硬さの繰り返し評価において、計算コストが大きいために制限されている。
彼らの大きな計算グラフは、ストレスと剛性の評価を違法に高価にし、その使用を小さな問題に制限する。
本研究では,オープンソース FE フレームワークである COMMET について紹介する。
我々のフレームワークは、バッチ化およびベクトル化構成評価をサポートする新しいアセンブリアルゴリズム、自動微分に取って代わる計算グラフ最適化デリバティブ、MPIによる分散メモリ並列性を備えている。
これらの進歩は、従来の非ベクトル化自動微分ベースの実装と比較して3桁を超えるスピードアップによって、ランタイムを劇的に削減する。
主にNCMに対してこれらの利得を実証するが、ループベースのアセンブリや構成的更新が性能を制限し、計算力学における大規模で高忠実なシミュレーションのための新しい標準を確立するため、同じ原則が広く適用されている。
関連論文リスト
- Time Marching Neural Operator FE Coupling: AI Accelerated Physics Modeling [3.0635300721402228]
本研究は、物理インフォームド・ディープ・オペレーター・ネットワークをドメイン分解によりFEMと統合する新しいハイブリッド・フレームワークを導入する。
動的システムの課題に対処するため、DeepONetに直接タイムステッピングスキームを組み込み、長期エラーの伝搬を大幅に低減する。
提案手法は, 従来手法に比べて収束率を最大20%向上させるとともに, 誤差マージンが3%未満の解の忠実度を保ちながら, 収束率の高速化を図っている。
論文 参考訳(メタデータ) (2025-04-15T16:54:04Z) - QuartDepth: Post-Training Quantization for Real-Time Depth Estimation on the Edge [55.75103034526652]
ASIC のハードウェアアクセラレーションによる MDE モデルの定量化を後学習量子化に応用した QuartDepth を提案する。
提案手法では,重みとアクティベーションの両方を4ビット精度で定量化し,モデルサイズと計算コストを削減する。
我々は、カーネル融合とカスタマイズされた命令プログラム性をサポートすることにより、フレキシブルでプログラム可能なハードウェアアクセラレータを設計する。
論文 参考訳(メタデータ) (2025-03-20T21:03:10Z) - A domain decomposition-based autoregressive deep learning model for unsteady and nonlinear partial differential equations [2.7755345520127936]
非定常・非線形偏微分方程式(PDE)を正確にモデル化するためのドメイン分割型ディープラーニング(DL)フレームワークCoMLSimを提案する。
このフレームワークは、(a)畳み込みニューラルネットワーク(CNN)ベースのオートエンコーダアーキテクチャと(b)完全に接続された層で構成される自己回帰モデルという、2つの重要なコンポーネントで構成されている。
論文 参考訳(メタデータ) (2024-08-26T17:50:47Z) - Consistency Models for Scalable and Fast Simulation-Based Inference [9.27488642055461]
シミュレーションベース推論(SBI)のための新しい条件付きサンプルであるCMPEの整合性モデルを提案する。
CMPEは基本的に連続した確率フローを蒸留し、制約のないアーキテクチャで高速な数発の推論を可能にする。
実験により,CMPEは高次元のベンチマークで最先端のアルゴリズムより優れるだけでなく,より高速なサンプリング速度で競合性能を達成できることを示した。
論文 参考訳(メタデータ) (2023-12-09T02:14:12Z) - Low-dimensional Data-based Surrogate Model of a Continuum-mechanical
Musculoskeletal System Based on Non-intrusive Model Order Reduction [0.0]
データ駆動型モデルオーダーリダクションを用いた代理モデルのような従来の手法は、高忠実度モデルをより広く利用するために用いられる。
ヒト上腕部の複素有限要素モデルに対する代理モデル手法の利点を実証する。
論文 参考訳(メタデータ) (2023-02-13T17:14:34Z) - On Fast Simulation of Dynamical System with Neural Vector Enhanced
Numerical Solver [59.13397937903832]
ニューラルベクトル(NeurVec)と呼ばれる深層学習に基づく補正手法を提案する。
NeurVecは、統合エラーを補償し、シミュレーションでより大きなタイムステップサイズを可能にする。
様々な複雑な力学系ベンチマークの実験により、NeurVecは顕著な一般化能力を示すことが示された。
論文 参考訳(メタデータ) (2022-08-07T09:02:18Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z) - Scalable Deep-Learning-Accelerated Topology Optimization for Additively
Manufactured Materials [4.221095652322005]
トポロジー最適化(TO)は、新しい構造、材料、デバイスを設計するための、人気があり強力な計算手法である。
これらの課題に対処するため、SDL-TOと呼ばれる汎用拡張型ディープラーニング(DL)ベースのToフレームワークを提案する。
我々のフレームワークは、反復履歴データを学習し、与えられた設計と勾配のマッピングを同時にトレーニングすることで、TOを加速します。
論文 参考訳(メタデータ) (2020-11-28T17:38:31Z) - Self Normalizing Flows [65.73510214694987]
本稿では,各層における学習された近似逆数により,勾配の高価な項を置き換えることで,フローの正規化を訓練するための柔軟なフレームワークを提案する。
これにより、各レイヤの正確な更新の計算複雑性が$mathcalO(D3)$から$mathcalO(D2)$に削減される。
実験により,これらのモデルは非常に安定であり,正確な勾配値と類似したデータ可能性値に最適化可能であることが示された。
論文 参考訳(メタデータ) (2020-11-14T09:51:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。