論文の概要: Automatically Differentiable Model Updating (ADiMU): conventional, hybrid, and neural network material model discovery including history-dependency
- arxiv url: http://arxiv.org/abs/2505.07801v1
- Date: Mon, 12 May 2025 17:49:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.530849
- Title: Automatically Differentiable Model Updating (ADiMU): conventional, hybrid, and neural network material model discovery including history-dependency
- Title(参考訳): 自動微分可能モデル更新(ADiMU):履歴依存性を含む従来型、ハイブリッド型、ニューラルネットワークモデル発見
- Authors: Bernardo P. Ferreira, Miguel A. Bessa,
- Abstract要約: ADiMUは、従来の(物理ベース)ニューラルネットワーク(データ駆動)、ハイブリッド素材モデルを更新可能であることを示す。
ADiMUはオープンソースの計算ツールとしてリリースされ、慎重に設計されドキュメント化されたHookeAIというソフトウェアに統合されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We introduce the first Automatically Differentiable Model Updating (ADiMU) framework that finds any history-dependent material model from full-field displacement and global force data (global, indirect discovery) or from strain-stress data (local, direct discovery). We show that ADiMU can update conventional (physics-based), neural network (data-driven), and hybrid material models. Moreover, this framework requires no fine-tuning of hyperparameters or additional quantities beyond those inherent to the user-selected material model architecture and optimizer. The robustness and versatility of ADiMU is extensively exemplified by updating different models spanning tens to millions of parameters, in both local and global discovery settings. Relying on fully differentiable code, the algorithmic implementation leverages vectorizing maps that enable history-dependent automatic differentiation via efficient batched execution of shared computation graphs. This contribution also aims to facilitate the integration, evaluation and application of future material model architectures by openly supporting the research community. Therefore, ADiMU is released as an open-source computational tool, integrated into a carefully designed and documented software named HookeAI.
- Abstract(参考訳): 本稿では,全フィールド変位やグローバルフォースデータ(グローバル,間接的発見)やストレインストレスデータ(局所的,直接発見)から履歴依存の物質モデルを検出する,最初の自動微分モデル更新(ADiMU)フレームワークを紹介する。
ADiMUは、従来の(物理ベース)ニューラルネットワーク(データ駆動)、ハイブリッド素材モデルを更新可能であることを示す。
さらに、このフレームワークは、ユーザが選択したマテリアルモデルアーキテクチャとオプティマイザに固有のもの以外に、ハイパーパラメータの微調整や追加の量を必要としない。
ADiMUの堅牢性と汎用性は、ローカルとグローバルの両方の発見設定において、数千から数百万のパラメータにまたがる異なるモデルの更新によって広く実証されている。
完全に微分可能なコードに基づいて、アルゴリズムの実装はベクトル化マップを活用し、共有計算グラフのバッチ実行による履歴依存の自動微分を可能にする。
この貢献はまた、研究コミュニティをオープンに支援することで、将来の物質モデルアーキテクチャの統合、評価、応用を促進することを目的とする。
そのため、ADiMUはオープンソースの計算ツールとしてリリースされ、慎重に設計されドキュメント化されたHookeAIというソフトウェアに統合されている。
関連論文リスト
- Automatically Learning Hybrid Digital Twins of Dynamical Systems [56.69628749813084]
Digital Twins (DT)は、現実世界のシステムの状態と時間力学をシミュレートする。
DTは、しばしばデータスカース設定で目に見えない条件に一般化するのに苦労します。
本稿では,HDTwinsを自律的に提案し,評価し,最適化するための進化的アルゴリズム(textbfHDTwinGen$)を提案する。
論文 参考訳(メタデータ) (2024-10-31T07:28:22Z) - Data-Juicer Sandbox: A Feedback-Driven Suite for Multimodal Data-Model Co-development [67.55944651679864]
統合データモデル共同開発に適した新しいサンドボックススイートを提案する。
このサンドボックスは、フィードバック駆動の実験プラットフォームを提供し、コスト効率とデータとモデルの両方のガイド付き洗練を可能にする。
論文 参考訳(メタデータ) (2024-07-16T14:40:07Z) - An improved tabular data generator with VAE-GMM integration [9.4491536689161]
本稿では,現在のアプローチの限界に対処する新しい変分オートエンコーダ(VAE)モデルを提案する。
本手法は,TVAEモデルにインスパイアされたベイジアン・ガウス混合モデル(BGM)をVAEアーキテクチャに組み込む。
我々は,2つの医療関連データセットを含む混合データ型を持つ実世界の3つのデータセットに対して,我々のモデルを徹底的に検証する。
論文 参考訳(メタデータ) (2024-04-12T12:31:06Z) - MC-DBN: A Deep Belief Network-Based Model for Modality Completion [3.7020486533725605]
我々は、MC-DBN(Modality Completion Deep Belief Network Based Model)を提案する。
このアプローチは、完全なデータの暗黙的な特徴を利用して、それ自体と追加の不完全なデータの間のギャップを補う。
拡張されたマルチモーダルデータは、実世界のダイナミックな性質と密接に一致し、モデルの有効性を高める。
論文 参考訳(メタデータ) (2024-02-15T08:21:50Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Deep Transfer Learning for Multi-source Entity Linkage via Domain
Adaptation [63.24594955429465]
マルチソースエンティティリンクは、データのクリーニングやユーザ縫合といった、高インパクトなアプリケーションにおいて重要である。
AdaMELは、多ソースエンティティリンクを実行するための一般的なハイレベルな知識を学ぶディープトランスファー学習フレームワークである。
本フレームワークは,教師付き学習に基づく平均的手法よりも8.21%向上した最先端の学習結果を実現する。
論文 参考訳(メタデータ) (2021-10-27T15:20:41Z) - AutoADR: Automatic Model Design for Ad Relevance [26.890941853575253]
大規模事前学習モデルはメモリと計算集約型である。
効果的なモデルアーキテクチャを設計する方法は、オンライン広告レバレンスにおける別の難しい問題である。
この課題に対処するための新しいエンドツーエンドフレームワークであるAutoADRを提案する。
論文 参考訳(メタデータ) (2020-10-14T13:24:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。