論文の概要: Physics-Informed Neural Networks for High-Frequency and Multi-Scale
Problems using Transfer Learning
- arxiv url: http://arxiv.org/abs/2401.02810v1
- Date: Fri, 5 Jan 2024 13:45:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-08 15:06:43.231575
- Title: Physics-Informed Neural Networks for High-Frequency and Multi-Scale
Problems using Transfer Learning
- Title(参考訳): 移動学習を用いた高周波・マルチスケール問題に対する物理インフォームニューラルネットワーク
- Authors: Abdul Hannan Mustajab, Hao Lyu, Zarghaam Rizvi, Frank Wuttke
- Abstract要約: 物理インフォームドニューラルネットワーク(PINN)は偏微分方程式および常微分方程式(ODEs/PDEs)のデータ駆動型解法である
本稿では,移動学習を用いて,トレーニングPINNの堅牢性と収束性を高めることを提案する。
我々は、選択を含むトレーニング戦略を詳しく説明し、より複雑な問題を解決するために、トランスファーラーニングを使用してニューラルネットワークをトレーニングするためのガイドラインを提案した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Physics-informed neural network (PINN) is a data-driven solver for partial
and ordinary differential equations(ODEs/PDEs). It provides a unified framework
to address both forward and inverse problems. However, the complexity of the
objective function often leads to training failures. This issue is particularly
prominent when solving high-frequency and multi-scale problems. We proposed
using transfer learning to boost the robustness and convergence of training
PINN, starting training from low-frequency problems and gradually approaching
high-frequency problems. Through two case studies, we discovered that transfer
learning can effectively train PINN to approximate solutions from low-frequency
problems to high-frequency problems without increasing network parameters.
Furthermore, it requires fewer data points and less training time. We
elaborately described our training strategy, including optimizer selection, and
suggested guidelines for using transfer learning to train neural networks for
solving more complex problems.
- Abstract(参考訳): physics-informed neural network (pinn) は、偏微分方程式(odes/pdes)のためのデータ駆動型解法である。
前方および逆問題に対処するための統一されたフレームワークを提供する。
しかし、目的関数の複雑さは、しばしばトレーニングの失敗につながる。
この問題は、高周波およびマルチスケールの問題を解決する際に特に顕著である。
我々は,低周波問題からトレーニングを開始し,徐々に高周波問題にアプローチし,PINNの堅牢性と収束性を高めるために伝達学習を用いた。
その結果,ネットワークパラメータを増加させることなく,低周波問題から高周波問題への近似解としてpinnを効果的に学習できることが判明した。
さらに、データポイントの削減とトレーニング時間の短縮も必要だ。
我々は、オプティマイザの選択を含むトレーニング戦略を詳しく説明し、トランスファーラーニングを使用してより複雑な問題を解決するためにニューラルネットワークをトレーニングするためのガイドラインを提案した。
関連論文リスト
- The Unreasonable Effectiveness of Solving Inverse Problems with Neural Networks [24.766470360665647]
逆問題に対する解を学ぶために訓練されたニューラルネットワークは、トレーニングセット上でも古典よりも優れた解を見つけることができることを示す。
高速な推論のために新しいデータに一般化するのではなく、既知のデータに対するより良い解決策を見つけるためにも使用できる。
論文 参考訳(メタデータ) (2024-08-15T12:38:10Z) - Adaptive recurrent vision performs zero-shot computation scaling to
unseen difficulty levels [6.053394076324473]
また,適応計算により,学習分布の難易度を超える解を視覚モデルで外挿できるかどうかを検討する。
畳み込みリカレントニューラルネットワーク(ConvRNN)とGraves(PathFinder)とMazes(Mazes)をベースとした学習可能なメカニズムを組み合わせる。
本稿では,AdRNNが早期(ないし遅れ)の処理を動的に停止して,より容易(あるいは困難)な問題を解消できることを示し,また,テスト時の繰り返し回数を動的に増加させることで,トレーニング中に表示されないより困難な問題設定に0ショットを一般化する。
論文 参考訳(メタデータ) (2023-11-12T21:07:04Z) - NeuralFastLAS: Fast Logic-Based Learning from Raw Data [54.938128496934695]
シンボリック・ルール学習者は解釈可能な解を生成するが、入力を記号的に符号化する必要がある。
ニューロシンボリックアプローチは、ニューラルネットワークを使用して生データを潜在シンボリック概念にマッピングすることで、この問題を克服する。
我々は,ニューラルネットワークを記号学習者と共同でトレーニングする,スケーラブルで高速なエンドツーエンドアプローチであるNeuralFastLASを紹介する。
論文 参考訳(メタデータ) (2023-10-08T12:33:42Z) - Solving Large-scale Spatial Problems with Convolutional Neural Networks [88.31876586547848]
大規模空間問題に対する学習効率を向上させるために移動学習を用いる。
畳み込みニューラルネットワーク (CNN) は, 信号の小さな窓で訓練できるが, 性能劣化の少ない任意の大信号で評価できる。
論文 参考訳(メタデータ) (2023-06-14T01:24:42Z) - Emulation Learning for Neuromimetic Systems [0.0]
ニューラル量子化システムに関する最近の研究に基づいて、量子化運動の学習結果とチャネルドロップアウトに対するレジリエンスを報告する。
本稿では,経路を学習するだけでなく,チャネルドロップアウトに対するレジリエンスの利点を示す一般のディープQネットワーク(DQN)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-04T22:47:39Z) - Incremental Spatial and Spectral Learning of Neural Operators for
Solving Large-Scale PDEs [86.35471039808023]
Incrmental Fourier Neural Operator (iFNO)を導入し、モデルが使用する周波数モードの数を徐々に増加させる。
iFNOは、各種データセット間の一般化性能を維持したり改善したりしながら、トレーニング時間を短縮する。
提案手法は,既存のフーリエニューラル演算子に比べて20%少ない周波数モードを用いて,10%低いテスト誤差を示すとともに,30%高速なトレーニングを実現する。
論文 参考訳(メタデータ) (2022-11-28T09:57:15Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Hierarchical Learning to Solve Partial Differential Equations Using
Physics-Informed Neural Networks [2.0305676256390934]
偏微分方程式に対するニューラルネットワーク解の収束率と精度を改善するための階層的手法を提案する。
線形偏微分方程式と非線形偏微分方程式の組によって提案した階層的手法の効率性とロバスト性を検証する。
論文 参考訳(メタデータ) (2021-12-02T13:53:42Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z) - Inverse-Dirichlet Weighting Enables Reliable Training of Physics
Informed Neural Networks [2.580765958706854]
我々は、深層ニューラルネットワークのトレーニング中に、スケール不均衡を伴うマルチスケールダイナミクスから生じる障害モードを記述し、治療する。
PINNは、物理方程式モデルとデータとのシームレスな統合を可能にする、一般的な機械学習テンプレートである。
逐次トレーニングを用いた逆モデリングでは,逆ディリクレ重み付けがPINNを破滅的忘れから保護することがわかった。
論文 参考訳(メタデータ) (2021-07-02T10:01:37Z) - Conditional physics informed neural networks [85.48030573849712]
固有値問題のクラス解を推定するための条件付きPINN(物理情報ニューラルネットワーク)を紹介します。
一つのディープニューラルネットワークが、問題全体に対する偏微分方程式の解を学習できることが示される。
論文 参考訳(メタデータ) (2021-04-06T18:29:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。