論文の概要: Neural Galerkin Schemes with Active Learning for High-Dimensional
Evolution Equations
- arxiv url: http://arxiv.org/abs/2203.01360v4
- Date: Thu, 29 Feb 2024 16:33:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-03 15:29:25.328987
- Title: Neural Galerkin Schemes with Active Learning for High-Dimensional
Evolution Equations
- Title(参考訳): 高次元進化方程式に対するアクティブラーニングを用いたニューラルガレルキンスキーム
- Authors: Joan Bruna and Benjamin Peherstorfer and Eric Vanden-Eijnden
- Abstract要約: 本研究では,高次元偏微分方程式を数値的に解くために,能動的学習を用いた学習データを生成するディープラーニングに基づくニューラル・ガレルキンスキームを提案する。
ニューラル・ガレルキンスキームはディラック・フランケル変分法に基づいて、残余を時間とともに最小化することで、ネットワークを訓練する。
提案したニューラル・ガレルキン・スキームの学習データ収集は,高次元におけるネットワークの表現力を数値的に実現するための鍵となる。
- 参考スコア(独自算出の注目度): 44.89798007370551
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks have been shown to provide accurate function
approximations in high dimensions. However, fitting network parameters requires
informative training data that are often challenging to collect in science and
engineering applications. This work proposes Neural Galerkin schemes based on
deep learning that generate training data with active learning for numerically
solving high-dimensional partial differential equations. Neural Galerkin
schemes build on the Dirac-Frenkel variational principle to train networks by
minimizing the residual sequentially over time, which enables adaptively
collecting new training data in a self-informed manner that is guided by the
dynamics described by the partial differential equations. This is in contrast
to other machine learning methods that aim to fit network parameters globally
in time without taking into account training data acquisition. Our finding is
that the active form of gathering training data of the proposed Neural Galerkin
schemes is key for numerically realizing the expressive power of networks in
high dimensions. Numerical experiments demonstrate that Neural Galerkin schemes
have the potential to enable simulating phenomena and processes with many
variables for which traditional and other deep-learning-based solvers fail,
especially when features of the solutions evolve locally such as in
high-dimensional wave propagation problems and interacting particle systems
described by Fokker-Planck and kinetic equations.
- Abstract(参考訳): ディープニューラルネットワークは高次元の正確な関数近似を提供することが示されている。
しかし、ネットワークパラメータの適合には、科学や工学の応用において収集することがしばしば難しい情報的トレーニングデータが必要である。
本研究では,高次元偏微分方程式の数値解法として,アクティブラーニングを用いたトレーニングデータを生成する深層学習に基づくニューラルガレルキンスキームを提案する。
ニューラル・ガレルキンスキームはディラック・フランケル変分法に基づいて、残差を時間とともに最小化し、偏微分方程式によって記述される力学によって導かれる自己インフォームドな方法で新しいトレーニングデータを適応的に収集することができる。
これは、トレーニングデータ取得を考慮せずに、ネットワークパラメータをグローバルに適合させる他の機械学習手法とは対照的である。
提案するニューラルガレルキンスキームの学習データ収集のアクティブな形式は,ネットワークの表現力の高次元化を数値的に実現するための鍵となる。
数値実験により、ニューラル・ガレルキンスキームは、特に高次元波動伝搬問題やフォッカー・プランク方程式(英語版)や運動方程式(英語版)によって記述された相互作用粒子系(英語版)などの解の特徴が局所的に進化する場合に、伝統的および他のディープラーニングベースの解法が失敗する多くの変数を持つ現象や過程をシミュレートできる可能性が示されている。
関連論文リスト
- Neural Incremental Data Assimilation [8.817223931520381]
ニューラルネットワークによってパラメータ化された粗いガウス分布の列として物理系をモデル化する深層学習手法を提案する。
これにより、再構築エラーを最小限に抑えるためにエンドツーエンドで訓練された同化演算子を定義することができる。
本稿では,疎度観測によるカオス力学系へのアプローチについて述べるとともに,従来の変分データ同化法と比較する。
論文 参考訳(メタデータ) (2024-06-21T11:42:55Z) - Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - Stretched and measured neural predictions of complex network dynamics [2.1024950052120417]
微分方程式のデータ駆動近似は、力学系のモデルを明らかにする従来の方法に代わる有望な方法である。
最近、ダイナミックスを研究する機械学習ツールとしてニューラルネットワークが採用されている。これは、データ駆動型ソリューションの検出や微分方程式の発見に使用できる。
従来の統計学習理論の限界を超えてモデルの一般化可能性を拡張することは可能であることを示す。
論文 参考訳(メタデータ) (2023-01-12T09:44:59Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Dynamic Neural Diversification: Path to Computationally Sustainable
Neural Networks [68.8204255655161]
訓練可能なパラメータが制限された小さなニューラルネットワークは、多くの単純なタスクに対してリソース効率の高い候補となる。
学習過程において隠れた層内のニューロンの多様性を探索する。
ニューロンの多様性がモデルの予測にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2021-09-20T15:12:16Z) - Inverse-Dirichlet Weighting Enables Reliable Training of Physics
Informed Neural Networks [2.580765958706854]
我々は、深層ニューラルネットワークのトレーニング中に、スケール不均衡を伴うマルチスケールダイナミクスから生じる障害モードを記述し、治療する。
PINNは、物理方程式モデルとデータとのシームレスな統合を可能にする、一般的な機械学習テンプレートである。
逐次トレーニングを用いた逆モデリングでは,逆ディリクレ重み付けがPINNを破滅的忘れから保護することがわかった。
論文 参考訳(メタデータ) (2021-07-02T10:01:37Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z) - Mean-Field and Kinetic Descriptions of Neural Differential Equations [0.0]
この研究では、ニューラルネットワークの特定のクラス、すなわち残留ニューラルネットワークに焦点を当てる。
我々は、ネットワークのパラメータ、すなわち重みとバイアスに関する定常状態と感度を分析する。
残留ニューラルネットワークにインスパイアされた微視的ダイナミクスの修正は、ネットワークのフォッカー・プランクの定式化につながる。
論文 参考訳(メタデータ) (2020-01-07T13:41:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。