論文の概要: Adversarial Multi-task Learning Enhanced Physics-informed Neural
Networks for Solving Partial Differential Equations
- arxiv url: http://arxiv.org/abs/2104.14320v1
- Date: Thu, 29 Apr 2021 13:17:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-30 19:20:38.894348
- Title: Adversarial Multi-task Learning Enhanced Physics-informed Neural
Networks for Solving Partial Differential Equations
- Title(参考訳): 物理インフォームドニューラルネットワークを用いた逆多タスク学習による部分微分方程式の解法
- Authors: Pongpisit Thanasutives, Ken-ichi Fukui, Masayuki Numao
- Abstract要約: 本稿では,多タスク学習手法,不確実性強調損失,勾配手術を学習pdeソリューションの文脈で活用する新しいアプローチを提案する。
実験では,提案手法が有効であることが判明し,従来手法と比較して未発見のデータポイントの誤差を低減できた。
- 参考スコア(独自算出の注目度): 9.823102211212582
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, researchers have utilized neural networks to accurately solve
partial differential equations (PDEs), enabling the mesh-free method for
scientific computation. Unfortunately, the network performance drops when
encountering a high nonlinearity domain. To improve the generalizability, we
introduce the novel approach of employing multi-task learning techniques, the
uncertainty-weighting loss and the gradients surgery, in the context of
learning PDE solutions. The multi-task scheme exploits the benefits of learning
shared representations, controlled by cross-stitch modules, between multiple
related PDEs, which are obtainable by varying the PDE parameterization
coefficients, to generalize better on the original PDE. Encouraging the network
pay closer attention to the high nonlinearity domain regions that are more
challenging to learn, we also propose adversarial training for generating
supplementary high-loss samples, similarly distributed to the original training
distribution. In the experiments, our proposed methods are found to be
effective and reduce the error on the unseen data points as compared to the
previous approaches in various PDE examples, including high-dimensional
stochastic PDEs.
- Abstract(参考訳): 近年,ニューラルネットワークを用いて偏微分方程式(pdes)を高精度に解く手法が提案されている。
残念ながら、高い非線形性領域に遭遇するとネットワーク性能は低下する。
一般化性を向上させるため,PDE学習におけるマルチタスク学習手法,不確実性重み付け損失,勾配手術を用いた新しい手法を提案する。
マルチタスク方式は、PDEパラメータ化係数の変動によって得られる複数の関連するPDE間のクロススティックモジュールによって制御される共有表現の学習の利点を利用して、元のPDEをより一般化する。
また,ネットワークが学習が難しい高非線形領域に注意を向けるよう促し,同様に元のトレーニング分布に分散した補足的な高損失サンプルを生成するための敵意訓練を提案する。
実験では, 提案手法は, 高次元確率PDEを含む様々なPDE例において, 従来の手法と比較して, 未知のデータ点の誤差を低減し, 有効であることがわかった。
関連論文リスト
- Constrained or Unconstrained? Neural-Network-Based Equation Discovery from Data [0.0]
我々はPDEをニューラルネットワークとして表現し、物理情報ニューラルネットワーク(PINN)に似た中間状態表現を用いる。
本稿では,この制約付き最適化問題を解くために,ペナルティ法と広く利用されている信頼領域障壁法を提案する。
バーガーズ方程式とコルトヴェーグ・ド・ヴライス方程式に関する我々の結果は、後者の制約付き手法がペナルティ法より優れていることを示している。
論文 参考訳(メタデータ) (2024-05-30T01:55:44Z) - Automatic Differentiation is Essential in Training Neural Networks for Solving Differential Equations [7.890817997914349]
ニューラルネットワークに基づくアプローチは、最近、科学と工学における偏微分方程式(PDE)の解法において大きな可能性を示している。
PDEのためのニューラルネットワーク手法の利点の1つは、その自動微分(AD)にある。
本稿では、ニューラルネットワークのトレーニングにおけるADの利点を定量的に示す。
論文 参考訳(メタデータ) (2024-05-23T02:01:05Z) - Pretraining Codomain Attention Neural Operators for Solving Multiphysics PDEs [85.40198664108624]
PDEを用いた多物理問題の解法として,コドメイン注意ニューラル演算子(CoDA-NO)を提案する。
CoDA-NOはコドメインやチャネル空間に沿った機能をトークン化し、複数のPDEシステムの自己教師付き学習や事前訓練を可能にする。
CoDA-NOは、データ制限のある複雑な下流タスクにおいて、既存のメソッドを36%以上上回ります。
論文 参考訳(メタデータ) (2024-03-19T08:56:20Z) - Solutions to Elliptic and Parabolic Problems via Finite Difference Based Unsupervised Small Linear Convolutional Neural Networks [1.124958340749622]
線形畳み込みニューラルネットワークを用いてPDEの有限差分解を直接推定するために、トレーニングデータを必要としない完全に教師なしのアプローチを提案する。
提案手法は、類似の有限差分に基づくアプローチよりもパラメータを著しく少なくし、また、いくつかの選択された楕円型および放物型問題に対する真の解に匹敵する精度を示す。
論文 参考訳(メタデータ) (2023-11-01T03:15:10Z) - PDE+: Enhancing Generalization via PDE with Adaptive Distributional
Diffusion [66.95761172711073]
ニューラルネットワークの一般化は、機械学習における中心的な課題です。
本稿では、入力データを調整することに集中するのではなく、ニューラルネットワークの基盤機能を直接拡張することを提案する。
私たちはこの理論的フレームワークを、$textbfPDE+$$textbfPDE$ with $textbfA$daptive $textbfD$istributional $textbfD$iffusionとして実践しました。
論文 参考訳(メタデータ) (2023-05-25T08:23:26Z) - A Stable and Scalable Method for Solving Initial Value PDEs with Neural
Networks [52.5899851000193]
我々は,ネットワークの条件が悪くなるのを防止し,パラメータ数で時間線形に動作するODEベースのIPPソルバを開発した。
このアプローチに基づく現在の手法は2つの重要な問題に悩まされていることを示す。
まず、ODEに従うと、問題の条件付けにおいて制御不能な成長が生じ、最終的に許容できないほど大きな数値誤差が生じる。
論文 参考訳(メタデータ) (2023-04-28T17:28:18Z) - Neural Partial Differential Equations with Functional Convolution [30.35306295442881]
本稿では、隠れた構造を発見し、異なる非線形PDEの解を予測するために、軽量なニューラルPDE表現を提案する。
我々は、数値PDE微分演算子の「翻訳類似性」の先行を利用して、学習モデルとトレーニングデータのスケールを大幅に削減する。
論文 参考訳(メタデータ) (2023-03-10T04:25:38Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - TransNet: Transferable Neural Networks for Partial Differential
Equations [14.15250342406011]
既存の転送学習アプローチでは、その定式化や事前学習のためのソリューションのデータなど、ターゲットPDEの多くの情報を必要とする。
本稿では,PDE情報を用いることなく,純粋関数近似の観点から伝達可能なニューラル特徴空間を構築することを提案する。
論文 参考訳(メタデータ) (2023-01-27T13:26:25Z) - Learning differentiable solvers for systems with hard constraints [48.54197776363251]
ニューラルネットワーク(NN)によって定義される関数に対する偏微分方程式(PDE)制約を強制する実践的手法を提案する。
我々は、任意のNNアーキテクチャに組み込むことができる微分可能なPDE制約層を開発した。
その結果、NNアーキテクチャに直接ハード制約を組み込むことで、制約のない目的のトレーニングに比べてテストエラーがはるかに少ないことがわかった。
論文 参考訳(メタデータ) (2022-07-18T15:11:43Z) - Lie Point Symmetry Data Augmentation for Neural PDE Solvers [69.72427135610106]
本稿では,ニューラルPDEソルバサンプルの複雑性を改善することにより,この問題を部分的に緩和する手法を提案する。
PDEの文脈では、データ変換の完全なリストを定量的に導き出せることが分かりました。
神経性PDEソルバサンプルの複雑さを桁違いに改善するために、どのように容易に展開できるかを示す。
論文 参考訳(メタデータ) (2022-02-15T18:43:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。