論文の概要: Active Training of Physics-Informed Neural Networks to Aggregate and
Interpolate Parametric Solutions to the Navier-Stokes Equations
- arxiv url: http://arxiv.org/abs/2005.05092v2
- Date: Tue, 12 May 2020 11:24:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 12:17:28.715393
- Title: Active Training of Physics-Informed Neural Networks to Aggregate and
Interpolate Parametric Solutions to the Navier-Stokes Equations
- Title(参考訳): Navier-Stokes方程式へのパラメトリック解の集約と補間のための物理インフォームニューラルネットワークのアクティブトレーニング
- Authors: Christopher J Arthurs and Andrew P King
- Abstract要約: この研究の目的は、パラメータ空間の領域にわたるナビエ・ストークス方程式の解を近似するニューラルネットワークを訓練することである。
この能力は、動脈疾患の診断とコンピュータ支援設計の両方に応用できる可能性がある。
- 参考スコア(独自算出の注目度): 1.5640205402243972
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The goal of this work is to train a neural network which approximates
solutions to the Navier-Stokes equations across a region of parameter space, in
which the parameters define physical properties such as domain shape and
boundary conditions. The contributions of this work are threefold:
1) To demonstrate that neural networks can be efficient aggregators of whole
families of parameteric solutions to physical problems, trained using data
created with traditional, trusted numerical methods such as finite elements.
Advantages include extremely fast evaluation of pressure and velocity at any
point in physical and parameter space (asymptotically, ~3 $\mu s$ / query), and
data compression (the network requires 99\% less storage space compared to its
own training data).
2) To demonstrate that the neural networks can accurately interpolate between
finite element solutions in parameter space, allowing them to be instantly
queried for pressure and velocity field solutions to problems for which
traditional simulations have never been performed.
3) To introduce an active learning algorithm, so that during training, a
finite element solver can automatically be queried to obtain additional
training data in locations where the neural network's predictions are in most
need of improvement, thus autonomously acquiring and efficiently distributing
training data throughout parameter space.
In addition to the obvious utility of Item 2, above, we demonstrate an
application of the network in rapid parameter sweeping, very precisely
predicting the degree of narrowing in a tube which would result in a 50\%
increase in end-to-end pressure difference at a given flow rate. This
capability could have applications in both medical diagnosis of arterial
disease, and in computer-aided design.
- Abstract(参考訳): この研究の目的は、パラメータがドメイン形状や境界条件などの物理的特性を定義するパラメータ空間の領域にわたってナビエ・ストークス方程式の解を近似するニューラルネットワークを訓練することである。
この研究の貢献は3つある: 1) ニューラルネットワークが物理問題に対するパラメータ的解の族全体の効率的なアグリゲータになり得ることを示すために、有限要素のような伝統的な信頼できる数値法を用いて訓練された。
物理的およびパラメータ空間の任意の時点(漸近的に~3$\mu s$ / query)における圧力と速度の極めて高速な評価、およびデータ圧縮(ネットワークは自身のトレーニングデータと比較して99.5%少ないストレージスペースを必要とする)を含む利点がある。
2) ニューラルネットワークはパラメータ空間内の有限要素解の間を正確に補間し, 従来のシミュレーションが実施されていない問題に対して, 圧力および速度場解を瞬時に問合せすることができることを示す。
3)学習中に有限要素ソルバを自動的にクエリして、ニューラルネットワークの予測が最も改善が必要な場所で追加のトレーニングデータを取得することにより、パラメータ空間全体のトレーニングデータを自律的に取得し、効率よく分散する能動的学習アルゴリズムを導入する。
上述の項目2の明らかな実用性に加えて, 高速パラメータスイーピングにおけるネットワークの応用を実演し, 管内の狭み度を精度良く予測し, 所定流量でエンドツーエンドの圧力差が50%増加することを示した。
この能力は、動脈疾患の診断とコンピュータ支援設計の両方に応用できる可能性がある。
関連論文リスト
- Just How Flexible are Neural Networks in Practice? [89.80474583606242]
ニューラルネットワークは、パラメータを持つ少なくとも多くのサンプルを含むトレーニングセットに適合できると広く信じられている。
しかし実際には、勾配や正規化子など、柔軟性を制限したトレーニング手順によるソリューションしか見つからない。
論文 参考訳(メタデータ) (2024-06-17T12:24:45Z) - Low Rank Optimization for Efficient Deep Learning: Making A Balance
between Compact Architecture and Fast Training [36.85333789033387]
本稿では,効率的なディープラーニング技術のための低ランク最適化に焦点を当てる。
空間領域では、ディープニューラルネットワークは、ネットワークパラメータの低階近似によって圧縮される。
時間領域では、ネットワークパラメータをいくつかのサブスペースでトレーニングできるため、高速収束のための効率的なトレーニングが可能になる。
論文 参考訳(メタデータ) (2023-03-22T03:55:16Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - An extended physics informed neural network for preliminary analysis of
parametric optimal control problems [0.0]
本研究では、パラメトリック偏微分方程式に対する教師付き学習戦略の拡張を提案する。
我々の主な目標は、パラメトリケート現象を短時間でシミュレートする物理情報学習パラダイムを提供することです。
論文 参考訳(メタデータ) (2021-10-26T09:39:05Z) - Estimating permeability of 3D micro-CT images by physics-informed CNNs
based on DNS [1.6274397329511197]
本稿では,地質岩のマイクロCTによる透水率予測手法を提案する。
透過性予測専用のCNNのためのトレーニングデータセットは、古典格子ボルツマン法(LBM)によって通常生成される透過性ラベルからなる。
その代わりに、定常ストークス方程式を効率的かつ分散並列に解き、直接数値シミュレーション(DNS)を行う。
論文 参考訳(メタデータ) (2021-09-04T08:43:19Z) - Simultaneous boundary shape estimation and velocity field de-noising in
Magnetic Resonance Velocimetry using Physics-informed Neural Networks [70.7321040534471]
MRV(MR resonance velocimetry)は、流体の速度場を測定するために医療や工学で広く用いられている非侵襲的な技術である。
これまでの研究では、境界(例えば血管)の形状が先駆体として知られていた。
我々は、ノイズの多いMRVデータのみを用いて、最も可能性の高い境界形状と減音速度場を推定する物理インフォームニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-07-16T12:56:09Z) - Learning Functional Priors and Posteriors from Data and Physics [3.537267195871802]
我々は、歴史的データを用いて時空の露光を可能にするディープニューラルネットワークに基づく新しいフレームワークを開発した。
物理インフォームド・ジェネレーティブ・アダクティブ・アダクティブ・ネットワーク(PI-GAN)を用いて機能的事前学習を行う。
第2段階では, PI-GANの潜伏空間の後方を推定するために, ハミルトニアンモンテカルロ法(HMC)を用いる。
論文 参考訳(メタデータ) (2021-06-08T03:03:24Z) - Efficient training of physics-informed neural networks via importance
sampling [2.9005223064604078]
Physics-In Neural Networks(PINN)は、偏微分方程式(PDE)によって制御されるシステムを計算するために訓練されているディープニューラルネットワークのクラスである。
重要サンプリング手法により,PINN訓練の収束挙動が改善されることが示唆された。
論文 参考訳(メタデータ) (2021-04-26T02:45:10Z) - Learning Neural Network Subspaces [74.44457651546728]
近年の観測は,ニューラルネットワーク最適化の展望の理解を深めている。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
論文 参考訳(メタデータ) (2021-02-20T23:26:58Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。