論文の概要: Deep learning approaches to surrogates for solving the diffusion
equation for mechanistic real-world simulations
- arxiv url: http://arxiv.org/abs/2102.05527v1
- Date: Wed, 10 Feb 2021 16:15:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-12 02:28:05.293272
- Title: Deep learning approaches to surrogates for solving the diffusion
equation for mechanistic real-world simulations
- Title(参考訳): 機械シミュレーションにおける拡散方程式の解法のための深層学習手法
- Authors: J. Quetzalc\'oatl Toledo-Mar\'in, Geoffrey Fox, James P. Sluka, James
A. Glazier
- Abstract要約: 医学的、生物学的、物理的、工学的なモデルでは、偏微分方程式(PDE)の数値解は、過激にシミュレーションを遅くすることができる。
このような複雑な数値問題に対する近似解を提供するために訓練されたニューラルネットワークである機械学習のサロゲートは、直接計算に比べて数桁のスピードアップを提供することが多い。
畳み込みニューラルネットワークを用いて拡散方程式の定常解を近似する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In many mechanistic medical, biological, physical and engineered
spatiotemporal dynamic models the numerical solution of partial differential
equations (PDEs) can make simulations impractically slow. Biological models
require the simultaneous calculation of the spatial variation of concentration
of dozens of diffusing chemical species. Machine learning surrogates, neural
networks trained to provide approximate solutions to such complicated numerical
problems, can often provide speed-ups of several orders of magnitude compared
to direct calculation. PDE surrogates enable use of larger models than are
possible with direct calculation and can make including such simulations in
real-time or near-real time workflows practical. Creating a surrogate requires
running the direct calculation tens of thousands of times to generate training
data and then training the neural network, both of which are computationally
expensive. We use a Convolutional Neural Network to approximate the stationary
solution to the diffusion equation in the case of two equal-diameter, circular,
constant-value sources located at random positions in a two-dimensional square
domain with absorbing boundary conditions. To improve convergence during
training, we apply a training approach that uses roll-back to reject stochastic
changes to the network that increase the loss function. The trained neural
network approximation is about 1e3 times faster than the direct calculation for
individual replicas. Because different applications will have different
criteria for acceptable approximation accuracy, we discuss a variety of loss
functions and accuracy estimators that can help select the best network for a
particular application.
- Abstract(参考訳): 多くの機械工学的医学的、生物学的、物理的および工学的時空間力学モデルにおいて、偏微分方程式(PDE)の数値解はシミュレーションを非現実的に遅くすることができる。
生物学的モデルは、数十種類の拡散化学種の濃度の空間変動の同時計算を必要とする。
このような複雑な数値問題に対する近似解を提供するために訓練されたニューラルネットワークである機械学習のサロゲートは、直接計算に比べて数桁のスピードアップを提供することが多い。
PDEサロゲートは、直接計算よりも大きなモデルの使用を可能にし、リアルタイムまたはほぼリアルタイムのワークフローでそのようなシミュレーションを含めることができます。
サロゲートを作成するには、トレーニングデータを生成してニューラルネットワークをトレーニングするために、数万回の直接計算を実行する必要がある。
畳み込みニューラルネットワークを用いて, 境界条件を吸収する2次元正方形領域内のランダムな位置に位置する2つの等径, 円, 定値源について, 拡散方程式の定常解を近似する。
学習中の収束性を改善するために,ロールバックを用いた学習手法を適用し,損失関数を増加させるネットワークの確率的変化を拒否する。
訓練されたニューラルネットワークの近似は、個々のレプリカの直接計算よりも約1e3速い。
異なるアプリケーションには許容できる近似精度の基準が異なるため、特定のアプリケーションに最適なネットワークを選択するのに役立つ様々な損失関数と精度推定器について議論する。
関連論文リスト
- MultiPDENet: PDE-embedded Learning with Multi-time-stepping for Accelerated Flow Simulation [48.41289705783405]
マルチスケールタイムステップ(MultiPDENet)を用いたPDE組み込みネットワークを提案する。
特に,有限差分構造に基づく畳み込みフィルタを少数のパラメータで設計し,最適化する。
4階ランゲ・クッタ積分器を微細な時間スケールで備えた物理ブロックが確立され、PDEの構造を埋め込んで予測を導出する。
論文 参考訳(メタデータ) (2025-01-27T12:15:51Z) - Diffeomorphic Latent Neural Operators for Data-Efficient Learning of Solutions to Partial Differential Equations [5.308435208832696]
計算された解演算子から偏微分方程式系(PDE)への近似は、科学や工学の様々な分野において必要である。
十分なデータのサンプル化を必要とせず,複数の領域にまたがって一般化可能なPDEソリューション演算子を学習するために,少数の真理解場に潜伏したニューラル演算子を訓練することができることを提案する。
論文 参考訳(メタデータ) (2024-11-27T03:16:00Z) - Learning-based Multi-continuum Model for Multiscale Flow Problems [24.93423649301792]
本稿では,同質化方程式の強化と,マルチスケール問題に対する単一モデルの精度向上を目的とした学習型マルチコンチニュウムモデルを提案する。
提案する学習型マルチコンチニュウムモデルでは,各粗いグリッドブロック内の複数の相互作用媒質を解決し,その間の物質移動を記述できる。
論文 参考訳(メタデータ) (2024-03-21T02:30:56Z) - Locally Regularized Neural Differential Equations: Some Black Boxes Were
Meant to Remain Closed! [3.222802562733787]
ニューラル微分方程式のような暗黙の層深層学習技術は重要なモデリングフレームワークとなっている。
パフォーマンスとトレーニング時間をトレードオフする2つのサンプリング戦略を開発します。
本手法は,関数評価を0.556-0.733xに削減し,予測を1.3-2xに高速化する。
論文 参考訳(メタデータ) (2023-03-03T23:31:15Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - Semi-supervised Learning of Partial Differential Operators and Dynamical
Flows [68.77595310155365]
本稿では,超ネットワーク解法とフーリエニューラル演算子アーキテクチャを組み合わせた新しい手法を提案する。
本手法は, 1次元, 2次元, 3次元の非線形流体を含む様々な時間発展PDEを用いて実験を行った。
その結果、新しい手法は、監督点の時点における学習精度を向上し、任意の中間時間にその解を補間できることを示した。
論文 参考訳(メタデータ) (2022-07-28T19:59:14Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。