論文の概要: RandNet-Parareal: a time-parallel PDE solver using Random Neural Networks
- arxiv url: http://arxiv.org/abs/2411.06225v1
- Date: Sat, 09 Nov 2024 16:10:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:07:58.464033
- Title: RandNet-Parareal: a time-parallel PDE solver using Random Neural Networks
- Title(参考訳): RandNet-Parareal:ランダムニューラルネットワークを用いた時間並列PDEソルバ
- Authors: Guglielmo Gattiglio, Lyudmila Grigoryeva, Massimiliano Tamborrino,
- Abstract要約: この研究はRandNet-Pararealを導入し、ランダムニューラルネットワーク(RandNets)を用いて粗い解と細かい解の相違を学習する新しい方法を紹介した。
RandNet-Parareal は、直列的に実行される細かなソルバとパラレアルと比較して、最大 x125 と x22 の速度向上を実現している。
- 参考スコア(独自算出の注目度): 1.5976170220566237
- License:
- Abstract: Parallel-in-time (PinT) techniques have been proposed to solve systems of time-dependent differential equations by parallelizing the temporal domain. Among them, Parareal computes the solution sequentially using an inaccurate (fast) solver, and then "corrects" it using an accurate (slow) integrator that runs in parallel across temporal subintervals. This work introduces RandNet-Parareal, a novel method to learn the discrepancy between the coarse and fine solutions using random neural networks (RandNets). RandNet-Parareal achieves speed gains up to x125 and x22 compared to the fine solver run serially and Parareal, respectively. Beyond theoretical guarantees of RandNets as universal approximators, these models are quick to train, allowing the PinT solution of partial differential equations on a spatial mesh of up to $10^5$ points with minimal overhead, dramatically increasing the scalability of existing PinT approaches. RandNet-Parareal's numerical performance is illustrated on systems of real-world significance, such as the viscous Burgers' equation, the Diffusion-Reaction equation, the two- and three-dimensional Brusselator, and the shallow water equation.
- Abstract(参考訳): 時間依存微分方程式の系を時間領域を並列化することで解くために、PinT法が提案されている。
中でもPararealは、不正確な(高速)解法を用いて逐次解法を計算し、その後、時間的サブインターバルをまたいで並列に走る正確な(スロー)積分器を用いて「修正」する。
この研究はRandNet-Pararealを導入し、ランダムニューラルネットワーク(RandNets)を用いて粗い解と細かい解の相違を学習する。
RandNet-Parareal は、直列的に実行される細かなソルバとパラレアルと比較して、最大 x125 と x22 の速度向上を実現している。
普遍近似器としてのRandNetsの理論的な保証以外にも、これらのモデルは訓練が早く、最大10^5$ポイントの空間メッシュ上の偏微分方程式のPinT解を最小限のオーバーヘッドで実現し、既存のPinTアプローチのスケーラビリティを劇的に向上させる。
RandNet-Pararealの数値性能は、粘性バーガーズ方程式、拡散反応方程式、2次元および3次元ブルセラ、浅い水方程式などの実世界の重要度を持つシステムで説明される。
関連論文リスト
- SineNet: Learning Temporal Dynamics in Time-Dependent Partial Differential Equations [46.244771659503314]
本稿では、複数の連続接続されたU字型ネットワークブロックからなるSineNetを提案する。
SineNetでは、高解像度の機能は、複数のステージを通じて徐々に進化し、各ステージ内でのミスアライメントの量を減らす。
提案手法は,Navier-Stokes方程式や浅水方程式など,複数のPDEデータセット上で厳密に検証されている。
論文 参考訳(メタデータ) (2024-03-28T15:41:41Z) - Design and Prototyping Distributed CNN Inference Acceleration in Edge
Computing [85.74517957717363]
HALPはエッジコンピューティングにおけるエッジデバイス(ED)間のシームレスなコラボレーションを設計することで推論を加速する。
実験により、分散推論HALPはVGG-16に対して1.7倍の推論加速を達成することが示された。
分散推論HALPを用いたモデル選択は,サービスの信頼性を著しく向上させることができる。
論文 参考訳(メタデータ) (2022-11-24T19:48:30Z) - Receptive Field-based Segmentation for Distributed CNN Inference
Acceleration in Collaborative Edge Computing [93.67044879636093]
協調エッジコンピューティングネットワークにおける分散畳み込みニューラルネットワーク(CNN)を用いた推論高速化について検討する。
我々は,CNNモデルを複数の畳み込み層に分割するために,融合層並列化を用いた新しい協調エッジコンピューティングを提案する。
論文 参考訳(メタデータ) (2022-07-22T18:38:11Z) - Instant Neural Graphics Primitives with a Multiresolution Hash Encoding [67.33850633281803]
品質を犠牲にすることなく、より小さなネットワークを使用できる汎用的な新しい入力符号化を提案する。
小さなニューラルネットワークは、勾配降下によって値が最適化された訓練可能な特徴ベクトルの多分解能ハッシュテーブルによって拡張される。
数桁の高速化を実現し、高品質なニューラルネットワークプリミティブを数秒でトレーニングすることができる。
論文 参考訳(メタデータ) (2022-01-16T07:22:47Z) - Unsupervised Reservoir Computing for Solving Ordinary Differential
Equations [1.6371837018687636]
通常の微分方程式(ODE)を満たす近似解を発見することができるエコー状態のリカレントニューラルネットワーク
ベイジアン最適化を用いて高次元ハイパーパラメータ空間における最適集合を効率よく発見し、1つの集合がロバストであり、異なる初期条件と時間範囲のODEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-08-25T18:16:42Z) - Parareal Neural Networks Emulating a Parallel-in-time Algorithm [1.988145627448243]
ディープニューラルネットワーク(DNN)が深まるにつれて、トレーニング時間が増加する。
本稿では,並列ニューラルネットワークを構築するための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T02:03:39Z) - Efficient semidefinite-programming-based inference for binary and
multi-class MRFs [83.09715052229782]
分割関数やMAP推定をペアワイズMRFで効率的に計算する手法を提案する。
一般のバイナリMRFから完全多クラス設定への半定緩和を拡張し、解法を用いて再び効率的に解けるようなコンパクトな半定緩和を開発する。
論文 参考訳(メタデータ) (2020-12-04T15:36:29Z) - EikoNet: Solving the Eikonal equation with Deep Neural Networks [6.735657356113614]
我々はEikoNetを提案する。EikoNetはEikonal方程式を解くための深層学習手法である。
我々のグリッドフリーアプローチは、連続した3次元領域内の任意の2点間の移動時間を迅速に決定できる。
この手法は, 地震震源インバージョン, レイ・マルチパス, トモグラフィー・モデリングに重要な応用がある。
論文 参考訳(メタデータ) (2020-03-25T02:31:53Z) - Accelerating Feedforward Computation via Parallel Nonlinear Equation
Solving [106.63673243937492]
ニューラルネットワークの評価や自己回帰モデルからのサンプリングなどのフィードフォワード計算は、機械学習においてユビキタスである。
本稿では,非線形方程式の解法としてフィードフォワード計算の課題を定式化し,ジャコビ・ガウス・シーデル固定点法とハイブリッド法を用いて解を求める。
提案手法は, 並列化可能な繰り返し回数の削減(あるいは等値化)により, 元のフィードフォワード計算と全く同じ値が与えられることを保証し, 十分な並列化計算能力を付与する。
論文 参考訳(メタデータ) (2020-02-10T10:11:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。