論文の概要: Systematic Performance Assessment of Deep Material Networks for Multiscale Material Modeling
- arxiv url: http://arxiv.org/abs/2602.07192v1
- Date: Fri, 06 Feb 2026 20:55:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.494677
- Title: Systematic Performance Assessment of Deep Material Networks for Multiscale Material Modeling
- Title(参考訳): マルチスケール・マテリアル・モデリングのためのディープ・マテリアル・ネットワークの系統的性能評価
- Authors: Xiaolong He, Haoyan Wei, Wei Hu, Henan Mao, C. T. Wu,
- Abstract要約: Deep Material Networks (DMN) は、マイクロメカニカルな原理をアーキテクチャに組み込む構造保存型機械的機械学習モデルである。
採用が増えているにもかかわらず、完全なオフライン-オフラインパイプラインにおけるパフォーマンスの体系的な評価は依然として限られている。
本研究は, 予測精度, 計算効率, トレーニングロバスト性について, DMNの総合的比較評価を行う。
- 参考スコア(独自算出の注目度): 10.97515056115661
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Material Networks (DMNs) are structure-preserving, mechanistic machine learning models that embed micromechanical principles into their architectures, enabling strong extrapolation capabilities and significant potential to accelerate multiscale modeling of complex microstructures. A key advantage of these models is that they can be trained exclusively on linear elastic data and then generalized to nonlinear inelastic regimes during online prediction. Despite their growing adoption, systematic evaluations of their performance across the full offline-online pipeline remain limited. This work presents a comprehensive comparative assessment of DMNs with respect to prediction accuracy, computational efficiency, and training robustness. We investigate the effects of offline training choices, including initialization, batch size, training data size, and activation regularization on online generalization performance and uncertainty. The results demonstrate that both prediction error and variance decrease with increasing training data size, while initialization and batch size can significantly influence model performance. Moreover, activation regularization is shown to play a critical role in controlling network complexity and therefore generalization performance. Compared with the original DMN, the rotation-free Interaction-based Material Network (IMN) formulation achieves a 3.4x - 4.7x speed-up in offline training, while maintaining comparable online prediction accuracy and computational efficiency. These findings clarify key trade-offs between model expressivity and efficiency in structure-preserving material networks and provide practical guidance for their deployment in multiscale material modeling.
- Abstract(参考訳): ディープマテリアルネットワーク(Deep Material Networks、DMN)は、マイクロメカニカルな原理をアーキテクチャに組み込んだ構造保存型機械的機械学習モデルである。
これらのモデルの鍵となる利点は、線形弾性データのみを訓練し、オンライン予測中に非線形非弾性状態に一般化できることである。
採用が増えているにもかかわらず、完全なオフライン-オフラインパイプラインにおけるパフォーマンスの体系的な評価は依然として限られている。
本研究は, 予測精度, 計算効率, トレーニングロバスト性について, DMNの総合的比較評価を行う。
オンライン一般化性能と不確実性に対する初期化,バッチサイズ,トレーニングデータサイズ,アクティベーション正規化などのオフライントレーニング選択の影響について検討する。
その結果,初期化やバッチサイズがモデル性能に大きく影響を与える一方で,トレーニングデータサイズの増加に伴って予測誤差と分散が減少することが示唆された。
さらに,活性化正則化はネットワークの複雑性や一般化性能を制御する上で重要な役割を担っている。
オリジナルのDMNと比較すると、回転のないインタラクションベースマテリアルネットワーク(IMN)の定式化はオフライントレーニングにおいて3.4倍から4.7倍のスピードアップを実現し、オンラインの予測精度と計算効率は同等である。
これらの結果から, 構造保存材料ネットワークにおけるモデル表現性と効率の主なトレードオフを明らかにし, マルチスケール材料モデルへの展開の実践的ガイダンスを提供する。
関連論文リスト
- From Physics to Machine Learning and Back: Part II - Learning and Observational Bias in PHM [52.64097278841485]
物理インフォームドモデリングとデータストラテジーによる学習と観察バイアスの導入は、モデルを物理的に一貫した信頼性のある予測へと導くことができるかを検討する。
メタラーニングや少数ショットラーニングなどの高速適応手法をドメイン一般化手法とともに検討する。
論文 参考訳(メタデータ) (2025-09-25T14:15:43Z) - Physics Informed Constrained Learning of Dynamics from Static Data [8.346864633675414]
物理インフォームドニューラルネットワーク(PINN)は、制御物理法則をニューラルネットワークのアーキテクチャに統合することにより、システムのダイナミクスをモデル化する。
既存のPINNフレームワークは、完全に観測された時間軸データに依存しており、多くのシステムでは取得が禁止される可能性がある。
本研究では,非時間コースや部分的に観測されたデータを用いて一階微分や動きを近似できる新しいPINN学習パラダイムであるConstrained Learningを開発した。
論文 参考訳(メタデータ) (2025-04-17T06:06:53Z) - Generalized Factor Neural Network Model for High-dimensional Regression [50.554377879576066]
複素・非線形・雑音に隠れた潜在低次元構造を持つ高次元データセットをモデル化する課題に取り組む。
我々のアプローチは、非パラメトリック回帰、因子モデル、高次元回帰のためのニューラルネットワークの概念のシームレスな統合を可能にする。
論文 参考訳(メタデータ) (2025-02-16T23:13:55Z) - Dynamic Loss-Based Sample Reweighting for Improved Large Language Model Pretraining [55.262510814326035]
既存のリウェイト戦略は主にグループレベルのデータの重要性に焦点を当てている。
動的・インスタンスレベルのデータ再重み付けのための新しいアルゴリズムを提案する。
当社のフレームワークでは,冗長データや非形式データを優先的に再重み付けする戦略を考案することが可能です。
論文 参考訳(メタデータ) (2025-02-10T17:57:15Z) - HM-DF SNN: Transcending Conventional Online Learning with Advanced Training and Deployment [39.6783548791379]
スパイキングニューラルネットワーク(SNN)は、人工知能の将来の発展において大きな可能性を秘めていると考えられている。
現在のオンライン学習フレームワークは、時間依存勾配の不分離問題に対処できない。
本稿では,それぞれ異なるスパイキング計算方式を採用する高度なモデル群であるHM-DF(Hybrid Mechanism-Driven Firing)モデルを提案する。
論文 参考訳(メタデータ) (2024-10-10T02:39:22Z) - Self-Supervised Learning with Generative Adversarial Networks for Electron Microscopy [0.0]
本稿では,自己教師付き事前学習が,下流タスクの高精度な微調整をいかに促進するかを示す。
我々は、電子顕微鏡の文脈において、下流の様々なタスクにまたがる自己教師型事前学習の汎用性を実証する。
論文 参考訳(メタデータ) (2024-02-28T12:25:01Z) - Physics-Informed Machine Learning for Seismic Response Prediction OF Nonlinear Steel Moment Resisting Frame Structures [6.483318568088176]
PiML法は、非線形構造の地震応答をモデル化するために、科学的原理と物理法則をディープニューラルネットワークに統合する。
運動方程式を操作することは、システムの非線形性を学習し、物理的に解釈可能な結果の中で解を閉じ込めるのに役立つ。
結果、既存の物理誘導LSTMモデルよりも複雑なデータを処理し、他の非物理データ駆動ネットワークより優れている。
論文 参考訳(メタデータ) (2024-02-28T02:16:03Z) - End-to-End Reinforcement Learning of Koopman Models for Economic Nonlinear Model Predictive Control [45.84205238554709]
本研究では, (e)NMPCの一部として最適性能を示すために, Koopman シュロゲートモデルの強化学習法を提案する。
エンドツーエンドトレーニングモデルは,(e)NMPCにおけるシステム識別を用いてトレーニングしたモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-03T10:21:53Z) - Efficient Online Processing with Deep Neural Networks [1.90365714903665]
この論文は、ニューラルネットワークの効率性に特化しています。特に、コアコントリビューションは、オンライン推論の効率面に対処します。
これらの進歩は、ボトムアップの計算再構成と司法的なアーキテクチャ修正によって達成される。
論文 参考訳(メタデータ) (2023-06-23T12:29:44Z) - Real-time Neural-MPC: Deep Learning Model Predictive Control for
Quadrotors and Agile Robotic Platforms [59.03426963238452]
モデル予測制御パイプライン内の動的モデルとして,大規模で複雑なニューラルネットワークアーキテクチャを効率的に統合するフレームワークであるReal-time Neural MPCを提案する。
ニューラルネットワークを使わずに、最先端のMPCアプローチと比較して、位置追跡誤差を最大82%削減することで、実世界の問題に対する我々のフレームワークの実現可能性を示す。
論文 参考訳(メタデータ) (2022-03-15T09:38:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。