論文の概要: SciAI4Industry -- Solving PDEs for industry-scale problems with deep
learning
- arxiv url: http://arxiv.org/abs/2211.12709v1
- Date: Wed, 23 Nov 2022 05:15:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 16:07:49.574930
- Title: SciAI4Industry -- Solving PDEs for industry-scale problems with deep
learning
- Title(参考訳): SciAI4Industry -- ディープラーニングによる産業規模の問題解決
- Authors: Philipp A. Witte, Russell J. Hewett, Kumar Saurabh, AmirHossein
Sojoodi, Ranveer Chandra
- Abstract要約: ユーザによるHPCインフラストラクチャの管理を必要とせずに,クラウド上で並列にトレーニングデータをシミュレートする分散プログラミングAPIを導入する。
我々は3D Navier-Stokes方程式を解くために大規模ニューラルネットワークを訓練し、多孔質媒質中の3D CO2フローをシミュレーションする。
CO2の例では、商用の炭素捕獲・貯蔵(CCS)プロジェクトに基づくトレーニングデータセットをシミュレートし、従来の数値シミュレータよりも5桁高速で3200倍安い200万以上のセルを持つ3Dグリッド上で、CO2フローシミュレーションのためのニューラルネットワークをトレーニングする。
- 参考スコア(独自算出の注目度): 1.642765885524881
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Solving partial differential equations with deep learning makes it possible
to reduce simulation times by multiple orders of magnitude and unlock
scientific methods that typically rely on large numbers of sequential
simulations, such as optimization and uncertainty quantification. Two of the
largest challenges of adopting scientific AI for industrial problem settings is
that training datasets must be simulated in advance and that neural networks
for solving large-scale PDEs exceed the memory capabilities of current GPUs. We
introduce a distributed programming API in the Julia language for simulating
training data in parallel on the cloud and without requiring users to manage
the underlying HPC infrastructure. In addition, we show that model-parallel
deep learning based on domain decomposition allows us to scale neural networks
for solving PDEs to commercial-scale problem settings and achieve above 90%
parallel efficiency. Combining our cloud API for training data generation and
model-parallel deep learning, we train large-scale neural networks for solving
the 3D Navier-Stokes equation and simulating 3D CO2 flow in porous media. For
the CO2 example, we simulate a training dataset based on a commercial carbon
capture and storage (CCS) project and train a neural network for CO2 flow
simulation on a 3D grid with over 2 million cells that is 5 orders of
magnitudes faster than a conventional numerical simulator and 3,200 times
cheaper.
- Abstract(参考訳): 深層学習による偏微分方程式の解法により、シミュレーション時間を桁違いに減らし、最適化や不確実性定量化のような多くの逐次シミュレーションに依存する科学的手法を解くことができる。
産業問題設定に科学的aiを採用する上での最大の課題は、トレーニングデータセットを事前にシミュレートしなければならず、大規模pdesを解決するニューラルネットワークが現在のgpuのメモリ能力を超えていることだ。
我々はJulia言語に分散プログラミングAPIを導入し、クラウド上で並列にトレーニングデータをシミュレートし、ユーザが基盤となるHPCインフラストラクチャを管理する必要をなくした。
さらに,ドメイン分解に基づくモデル並列ディープラーニングによって,pdesを商業的な問題設定に拡張し,90%以上の並列効率を達成するために,ニューラルネットワークをスケールできることを示す。
データ生成とモデル並列ディープラーニングをトレーニングするクラウドapiを組み合わせることで,3次元navier-stokes方程式を解き,多孔質媒質中の3次元co2フローをシミュレートするために,大規模ニューラルネットワークをトレーニングする。
CO2の例では、商用の炭素捕獲・貯蔵(CCS)プロジェクトに基づくトレーニングデータセットをシミュレートし、従来の数値シミュレータよりも5桁高速で3200倍安い200万以上のセルを持つ3Dグリッド上で、CO2フローシミュレーションのためのニューラルネットワークをトレーニングする。
関連論文リスト
- Learning-Based Finite Element Methods Modeling for Complex Mechanical Systems [1.6977525619006286]
複雑な力学系シミュレーションは多くの実世界の応用において重要である。
最近のCNNやGNNベースのシミュレーションモデルは、複雑なメカニックシミュレーションを効果的に表すのに苦戦している。
本稿では,新しい2レベルメッシュグラフネットワークを提案する。
論文 参考訳(メタデータ) (2024-08-30T15:56:50Z) - Geometry-Informed Neural Operator for Large-Scale 3D PDEs [76.06115572844882]
大規模偏微分方程式の解演算子を学習するために,幾何インフォームド・ニューラル演算子(GINO)を提案する。
我々はGINOを訓練し、わずか500点のデータポイントで車両表面の圧力を予測することに成功した。
論文 参考訳(メタデータ) (2023-09-01T16:59:21Z) - Learning Controllable Adaptive Simulation for Multi-resolution Physics [86.8993558124143]
完全深層学習に基づくサロゲートモデルとして,LAMP(Learning Controllable Adaptive Simulation for Multi- resolution Physics)を導入した。
LAMPは、前方進化を学習するためのグラフニューラルネットワーク(GNN)と、空間的洗練と粗大化のポリシーを学ぶためのGNNベースのアクター批判で構成されている。
我々は,LAMPが最先端のディープラーニングサロゲートモデルより優れており,長期予測誤差を改善するために,適応的なトレードオフ計算が可能であることを実証した。
論文 参考訳(メタデータ) (2023-05-01T23:20:27Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Continual learning autoencoder training for a particle-in-cell
simulation via streaming [52.77024349608834]
今後のエクサスケール時代は 次世代の物理シミュレーションを 高解像度で提供します
これらのシミュレーションは高解像度であり、ディスク上に大量のシミュレーションデータを格納することはほぼ不可能であるため、機械学習モデルのトレーニングに影響を与える。
この研究は、ディスク上のデータなしで、実行中のシミュレーションにニューラルネットワークを同時にトレーニングするアプローチを示す。
論文 参考訳(メタデータ) (2022-11-09T09:55:14Z) - Learning Large-scale Subsurface Simulations with a Hybrid Graph Network
Simulator [57.57321628587564]
本研究では3次元地下流体の貯留層シミュレーションを学習するためのハイブリッドグラフネットワークシミュレータ (HGNS) を提案する。
HGNSは、流体の進化をモデル化する地下グラフニューラルネットワーク(SGNN)と、圧力の進化をモデル化する3D-U-Netで構成されている。
産業標準地下フローデータセット(SPE-10)と1100万セルを用いて,HGNSが標準地下シミュレータの18倍の推算時間を短縮できることを実証した。
論文 参考訳(メタデータ) (2022-06-15T17:29:57Z) - Training Deep Neural Networks with Constrained Learning Parameters [4.917317902787792]
ディープラーニングタスクのかなりの部分はエッジコンピューティングシステムで実行される。
我々は, Combinatorial Neural Network Training Algorithm (CNNTrA)を提案する。
CoNNTrAは、MNIST、Iris、ImageNetデータセット上で、第三次学習パラメータでディープラーニングモデルをトレーニングする。
以上の結果から,CNNTrAモデルはメモリを32倍に削減し,バックプロパゲーションモデルと同程度の誤差を有することがわかった。
論文 参考訳(メタデータ) (2020-09-01T16:20:11Z) - The Case for Strong Scaling in Deep Learning: Training Large 3D CNNs
with Hybrid Parallelism [3.4377970608678314]
大規模3次元畳み込みニューラルネットワークを学習するためのスケーラブルなハイブリッド並列アルゴリズムを提案する。
提案したトレーニングアルゴリズムを,CosmoFlowと3D U-Netの2つの挑戦的な3D CNNを用いて評価した。
論文 参考訳(メタデータ) (2020-07-25T05:06:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。