論文の概要: h-analysis and data-parallel physics-informed neural networks
- arxiv url: http://arxiv.org/abs/2302.08835v3
- Date: Wed, 23 Aug 2023 12:11:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 11:30:22.286645
- Title: h-analysis and data-parallel physics-informed neural networks
- Title(参考訳): h-解析とデータ並列物理インフォームドニューラルネットワーク
- Authors: Paul Escapil-Inchausp\'e and Gonzalo A. Ruz
- Abstract要約: 物理インフォームドニューラルネットワーク(PINN)に着目した機械学習スキームのデータ並列高速化について検討する。
我々はHorovodトレーニングフレームワークを通じて、$h$-analysisとデータ並列アクセラレーションに基づく新しいプロトコルを詳述する。
アクセラレーションは実装が簡単で、トレーニングを損なわず、非常に効率的で制御可能であることを示す。
- 参考スコア(独自算出の注目度): 0.7614628596146599
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We explore the data-parallel acceleration of physics-informed machine
learning (PIML) schemes, with a focus on physics-informed neural networks
(PINNs) for multiple graphics processing units (GPUs) architectures. In order
to develop scale-robust and high-throughput PIML models for sophisticated
applications which may require a large number of training points (e.g.,
involving complex and high-dimensional domains, non-linear operators or
multi-physics), we detail a novel protocol based on $h$-analysis and
data-parallel acceleration through the Horovod training framework. The protocol
is backed by new convergence bounds for the generalization error and the
train-test gap. We show that the acceleration is straightforward to implement,
does not compromise training, and proves to be highly efficient and
controllable, paving the way towards generic scale-robust PIML. Extensive
numerical experiments with increasing complexity illustrate its robustness and
consistency, offering a wide range of possibilities for real-world simulations.
- Abstract(参考訳): 本稿では,複数のgpu(graphics processing unit)アーキテクチャを対象とした物理インフォーマントニューラルネットワーク(pinns)に着目し,物理インフォーマント機械学習(piml)スキームのデータ並列加速度について検討する。
多くのトレーニングポイントを必要とする高度なアプリケーション(例えば、複雑な高次元ドメインや非線形演算子、マルチフィジカルなど)のためのスケールロバストで高スループットなpimlモデルを開発するために、horovodトレーニングフレームワークによる$h$解析とデータ並列加速度に基づく新しいプロトコルを詳述する。
このプロトコルは、一般化エラーとトレインテストギャップに対する新しい収束境界によって裏付けられている。
高速化は実装が簡単で、トレーニングを損なわず、高効率で制御可能であることを証明し、汎用的なスケール・ロバストPIMLへの道を開いた。
複雑化を伴う広範な数値実験は、その頑健さと一貫性を示し、現実世界のシミュレーションに幅広い可能性をもたらす。
関連論文リスト
- Physics-informed MeshGraphNets (PI-MGNs): Neural finite element solvers
for non-stationary and nonlinear simulations on arbitrary meshes [13.41003911618347]
PI-MGNは、PINNとMGNを組み合わせて任意のメッシュ上の非定常および非線形偏微分方程式(PDE)を解くハイブリッドアプローチである。
結果は、モデルが大規模で複雑なメッシュにうまくスケールしていることを示しているが、小さなジェネリックメッシュでのみトレーニングされている。
論文 参考訳(メタデータ) (2024-02-16T13:34:51Z) - Reduced Simulations for High-Energy Physics, a Middle Ground for
Data-Driven Physics Research [0.0]
サブ原子粒子軌道再構成は高エネルギー物理実験において重要な課題である。
我々は,複雑性低減型検出器モデルとしてREDVID(REDuced VIrtual Detector)と粒子衝突イベントシミュレータコンボを提供する。
論文 参考訳(メタデータ) (2023-08-30T12:50:45Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - On Fast Simulation of Dynamical System with Neural Vector Enhanced
Numerical Solver [59.13397937903832]
ニューラルベクトル(NeurVec)と呼ばれる深層学習に基づく補正手法を提案する。
NeurVecは、統合エラーを補償し、シミュレーションでより大きなタイムステップサイズを可能にする。
様々な複雑な力学系ベンチマークの実験により、NeurVecは顕著な一般化能力を示すことが示された。
論文 参考訳(メタデータ) (2022-08-07T09:02:18Z) - Semi-Parametric Inducing Point Networks and Neural Processes [15.948270454686197]
半パラメトリック誘導点ネットワーク(SPIN)は、推論時間におけるトレーニングセットを計算効率よくクエリすることができる。
SPINは、ポイントメソッドにインスパイアされたデータポイント間のクロスアテンションメカニズムを通じて、線形複雑性を実現する。
実験では,SPINはメモリ要件を低減し,様々なメタラーニングタスクの精度を向上し,重要な実用的問題である遺伝子型計算における最先端性能を向上させる。
論文 参考訳(メタデータ) (2022-05-24T01:42:46Z) - A Graph Deep Learning Framework for High-Level Synthesis Design Space
Exploration [11.154086943903696]
High-Level Synthesisは、アプリケーション固有の高速プロトタイピングのためのソリューションである。
本稿では,加速性能とハードウェアコストを共同で予測するグラフニューラルネットワークHLSを提案する。
提案手法は,一般的なシミュレータと同等の精度で予測できることを示す。
論文 参考訳(メタデータ) (2021-11-29T18:17:45Z) - Adaptive Anomaly Detection for Internet of Things in Hierarchical Edge
Computing: A Contextual-Bandit Approach [81.5261621619557]
階層エッジコンピューティング(HEC)を用いた適応型異常検出手法を提案する。
まず,複雑性を増した複数のDNNモデルを構築し,それぞれを対応するHEC層に関連付ける。
そこで我々は、文脈帯域問題として定式化され、強化学習ポリシーネットワークを用いて解決される適応モデル選択スキームを設計する。
論文 参考訳(メタデータ) (2021-08-09T08:45:47Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z) - Fast-Convergent Federated Learning [82.32029953209542]
フェデレーション学習は、モバイルデバイスの現代的なネットワークを介して機械学習タスクを分散するための、有望なソリューションである。
本稿では,FOLBと呼ばれる高速収束型フェデレーション学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-26T14:37:51Z) - Model-Driven Beamforming Neural Networks [47.754731555563836]
本稿では、一般データおよびモデル駆動ビームフォーミングニューラルネットワーク(BNN)を紹介する。
様々な学習戦略を示し、DLベースのBNNの複雑さの低減についても論じている。
また、BNNの汎用性を向上させるため、トレーニングセットの強化や伝達学習などの強化手法も提供する。
論文 参考訳(メタデータ) (2020-01-15T12:50:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。