論文の概要: Efficient physics-informed neural networks using hash encoding
- arxiv url: http://arxiv.org/abs/2302.13397v1
- Date: Sun, 26 Feb 2023 20:00:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 17:28:27.104066
- Title: Efficient physics-informed neural networks using hash encoding
- Title(参考訳): ハッシュ符号化を用いた高効率物理インフォームドニューラルネットワーク
- Authors: Xinquan Huang and Tariq Alkhalifah
- Abstract要約: 物理インフォームドニューラルネットワーク(PINN)は科学計算において多くの注目を集めている。
トレーニング効率を向上させるために,マルチレゾリューションハッシュ符号化をPINNに組み込むことを提案する。
提案手法は,バーガーズ方程式,ヘルムホルツ方程式,ナビエ・ストークス方程式の3つの問題について検証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physics-informed neural networks (PINNs) have attracted a lot of attention in
scientific computing as their functional representation of partial differential
equation (PDE) solutions offers flexibility and accuracy features. However,
their training cost has limited their practical use as a real alternative to
classic numerical methods. Thus, we propose to incorporate multi-resolution
hash encoding into PINNs to improve the training efficiency, as such encoding
offers a locally-aware (at multi resolution) coordinate inputs to the neural
network. Borrowed from the neural representation field community (NeRF), we
investigate the robustness of calculating the derivatives of such hash encoded
neural networks with respect to the input coordinates, which is often needed by
the PINN loss terms. We propose to replace the automatic differentiation with
finite-difference calculations of the derivatives to address the discontinuous
nature of such derivatives. We also share the appropriate ranges for the hash
encoding hyperparameters to obtain robust derivatives. We test the proposed
method on three problems, including Burgers equation, Helmholtz equation, and
Navier-Stokes equation. The proposed method admits about a 10-fold improvement
in efficiency over the vanilla PINN implementation.
- Abstract(参考訳): 物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)の関数表現が柔軟性と精度を提供するため、科学計算において多くの注目を集めている。
しかし、その訓練費は古典的な数値手法の代替手段としての実用性に制限がかかっている。
そこで本研究では,ニューラルネットワークへのローカルアウェア(マルチレゾリューション)座標入力を提供するため,ピンにマルチレゾリューションハッシュエンコーディングを組み込んでトレーニング効率を向上させることを提案する。
ニューラル表現場コミュニティ (NeRF) から引用して, PINN損失項でしばしば必要とされる入力座標に関して, ハッシュ符号化ニューラルネットワークの導関数を計算する頑健性について検討する。
本稿では, 微分の不連続性に対処するために, 自動微分を微分の有限差分計算に置き換えることを提案する。
また,超パラメータを符号化するハッシュに対して,ロバスト導関数を得るための適切な範囲を共有する。
提案手法は,バーガーズ方程式,ヘルムホルツ方程式,ナビエ・ストークス方程式の3つの問題について検証した。
提案手法では,バニラPINN実装の10倍の効率向上が認められている。
関連論文リスト
- PMNN:Physical Model-driven Neural Network for solving time-fractional
differential equations [17.66402435033991]
時間差分方程式を解くために, 革新的物理モデル駆動ニューラルネットワーク (PMNN) 法を提案する。
ディープニューラルネットワーク(DNN)と分数微分の近似を効果的に組み合わせる。
論文 参考訳(メタデータ) (2023-10-07T12:43:32Z) - RBF-MGN:Solving spatiotemporal PDEs with Physics-informed Graph Neural
Network [4.425915683879297]
グラフニューラルネットワーク(GNN)とラジアル基底関数有限差分(RBF-FD)に基づく新しいフレームワークを提案する。
RBF-FDはモデルトレーニングを導くために微分方程式の高精度差分形式を構築するために用いられる。
提案アルゴリズムの一般化可能性,精度,効率性を,異なるPDEパラメータで説明する。
論文 参考訳(メタデータ) (2022-12-06T10:08:02Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - DEQGAN: Learning the Loss Function for PINNs with Generative Adversarial
Networks [1.0499611180329804]
本研究は、生成逆数ネットワークを用いた微分方程式の解法である微分方程式GAN(DEQGAN)を提案する。
DeQGAN は PINN よりも 平均二乗誤差が桁違いに小さくなることを示す。
また、DECGANは、一般的な数値法と競合する解の精度を達成できることを示す。
論文 参考訳(メタデータ) (2022-09-15T06:39:47Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Learning to Solve the AC-OPF using Sensitivity-Informed Deep Neural
Networks [52.32646357164739]
最適な電力フロー(ACOPF)のソリューションを解決するために、ディープニューラルネットワーク(DNN)を提案します。
提案されたSIDNNは、幅広いOPFスキームと互換性がある。
他のLearning-to-OPFスキームとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-03-27T00:45:23Z) - Unsupervised Learning of Solutions to Differential Equations with
Generative Adversarial Networks [1.1470070927586016]
本研究では,教師なしニューラルネットワークを用いた微分方程式の解法を開発した。
差分方程式GAN (DEQGAN) と呼ばれる手法は, 平均二乗誤差を桁違いに低減できることを示す。
論文 参考訳(メタデータ) (2020-07-21T23:36:36Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - A Derivative-Free Method for Solving Elliptic Partial Differential
Equations with Deep Neural Networks [2.578242050187029]
楕円型偏微分方程式のクラスを解くためのディープニューラルネットワークに基づく手法を提案する。
我々は、PDEの確率的表現の指導の下で訓練されたディープニューラルネットワークを用いて、PDEの解を近似する。
ブラウンのウォーカーがドメインを探索するにつれ、ディープニューラルネットワークは強化学習の形式で反復的に訓練される。
論文 参考訳(メタデータ) (2020-01-17T03:29:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。