論文の概要: Deep learning of thermodynamics-aware reduced-order models from data
- arxiv url: http://arxiv.org/abs/2007.03758v2
- Date: Tue, 9 Mar 2021 17:51:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 05:10:49.343528
- Title: Deep learning of thermodynamics-aware reduced-order models from data
- Title(参考訳): データに基づく熱力学の深層学習
- Authors: Quercus Hernandez, Alberto Badias, David Gonzalez, Francisco Chinesta,
Elias Cueto
- Abstract要約: 大規模離散化物理系の関連する潜伏変数を学習するアルゴリズムを提案する。
次に、熱力学的に一貫性のあるディープニューラルネットワークを用いて、その時間進化を予測する。
- 参考スコア(独自算出の注目度): 0.08699280339422537
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present an algorithm to learn the relevant latent variables of a
large-scale discretized physical system and predict its time evolution using
thermodynamically-consistent deep neural networks. Our method relies on sparse
autoencoders, which reduce the dimensionality of the full order model to a set
of sparse latent variables with no prior knowledge of the coded space
dimensionality. Then, a second neural network is trained to learn the
metriplectic structure of those reduced physical variables and predict its time
evolution with a so-called structure-preserving neural network. This data-based
integrator is guaranteed to conserve the total energy of the system and the
entropy inequality, and can be applied to both conservative and dissipative
systems. The integrated paths can then be decoded to the original
full-dimensional manifold and be compared to the ground truth solution. This
method is tested with two examples applied to fluid and solid mechanics.
- Abstract(参考訳): 本稿では,大規模離散物理システムの関連潜在変数を学習し,熱力学的に一貫性のある深層ニューラルネットワークを用いて時間発展を予測するアルゴリズムを提案する。
本手法はスパースオートエンコーダに依拠し, 符号化空間次元の知識を必要とせず, スパース潜在変数の集合に全順序モデルの次元を還元する。
次に、第2のニューラルネットワークをトレーニングして、削減された物理変数の経時構造を学び、その時間の進化を、いわゆる構造保存ニューラルネットワークで予測する。
このデータベースの積分器は、システムの総エネルギーとエントロピーの不等式を保存することが保証されており、保守系と散逸系の両方に適用できる。
積分されたパスは元の全次元多様体にデコードされ、基底真理解と比較することができる。
この方法は流体力学と固体力学の2つの例で検証される。
関連論文リスト
- Balanced Neural ODEs: nonlinear model order reduction and Koopman operator approximations [0.0]
変分オートエンコーダ(VAE)はコンパクトな潜在表現を学習するための強力なフレームワークである。
ニューラルネットワークは過渡系力学の学習において優れている。
この研究は両者の強みを組み合わせることで、高速な代理モデルと調整可能な複雑さを生み出す。
論文 参考訳(メタデータ) (2024-10-14T05:45:52Z) - Neural Incremental Data Assimilation [8.817223931520381]
ニューラルネットワークによってパラメータ化された粗いガウス分布の列として物理系をモデル化する深層学習手法を提案する。
これにより、再構築エラーを最小限に抑えるためにエンドツーエンドで訓練された同化演算子を定義することができる。
本稿では,疎度観測によるカオス力学系へのアプローチについて述べるとともに,従来の変分データ同化法と比較する。
論文 参考訳(メタデータ) (2024-06-21T11:42:55Z) - tLaSDI: Thermodynamics-informed latent space dynamics identification [0.0]
熱力学の第一原理と第二原理を組み込んだ潜在空間力学同定法,すなわち tLa を提案する。
潜伏変数は、非線形次元減少モデルとしてオートエンコーダを通して学習される。
誘引的相関は、潜在空間におけるtLaの量とフルステート溶液の挙動の間に実験的に観察される。
論文 参考訳(メタデータ) (2024-03-09T09:17:23Z) - Thermodynamics-informed super-resolution of scarce temporal dynamics data [4.893345190925178]
本稿では,物理系の測定値の分解能を高め,その時間進化を予測する手法を提案する。
本手法では, 逆自己エンコーダを用いて全順序モデルの次元性を, 先行値に適合するように強制される潜在変数の集合に還元する。
第2のニューラルネットワークは、潜伏変数の物理的構造を学び、その時間的進化を予測するために訓練される。
論文 参考訳(メタデータ) (2024-02-27T13:46:45Z) - Assessing Neural Network Representations During Training Using
Noise-Resilient Diffusion Spectral Entropy [55.014926694758195]
ニューラルネットワークにおけるエントロピーと相互情報は、学習プロセスに関する豊富な情報を提供する。
データ幾何を利用して基礎となる多様体にアクセスし、これらの情報理論測度を確実に計算する。
本研究は,高次元シミュレーションデータにおける固有次元と関係強度の耐雑音性の測定結果である。
論文 参考訳(メタデータ) (2023-12-04T01:32:42Z) - Machine learning in and out of equilibrium [58.88325379746631]
我々の研究は、統計物理学から適応したフォッカー・プランク法を用いて、これらの平行線を探索する。
我々は特に、従来のSGDでは平衡が切れている長期的限界におけるシステムの定常状態に焦点を当てる。
本稿では,ミニバッチの置き換えを伴わない新しいランゲヴィンダイナミクス(SGLD)を提案する。
論文 参考訳(メタデータ) (2023-06-06T09:12:49Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Influence Estimation and Maximization via Neural Mean-Field Dynamics [60.91291234832546]
本稿では,ニューラル平均場(NMF)ダイナミクスを用いた新しい学習フレームワークを提案する。
我々のフレームワークは拡散ネットワークの構造とノード感染確率の進化を同時に学習することができる。
論文 参考訳(メタデータ) (2021-06-03T00:02:05Z) - Phase space learning with neural networks [0.0]
本研究では、部分微分方程式(PDE)を解く投影型手法の非線形一般化としてのオートエンコーダニューラルネットワークを提案する。
提案したディープラーニングアーキテクチャは、中間再構成なしに非常に少ない潜在空間に完全に統合することでPDEのダイナミクスを生成でき、その後、潜在解を元の空間に復号することができる。
単一経路のサンプルデータから動的システムの位相空間のグローバルな特性を学習するために、適切に正規化されたニューラルネットワークの信頼性と、目に見えない分岐を予測する能力を示す。
論文 参考訳(メタデータ) (2020-06-22T20:28:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。