論文の概要: NSGA-PINN: A Multi-Objective Optimization Method for Physics-Informed
Neural Network Training
- arxiv url: http://arxiv.org/abs/2303.02219v1
- Date: Fri, 3 Mar 2023 21:24:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 21:01:44.355870
- Title: NSGA-PINN: A Multi-Objective Optimization Method for Physics-Informed
Neural Network Training
- Title(参考訳): NSGA-PINN:物理インフォームドニューラルネットワークトレーニングのための多目的最適化手法
- Authors: Binghang Lu, Christian B. Moya and Guang Lin
- Abstract要約: 提案フレームワークは非支配的ソーティング遺伝的アルゴリズム (NSGA-II) を用いて, 局所最小化を効果的に回避する従来の勾配最適化アルゴリズムを実現する。
提案するフレームワークは,ノイズの多いデータによる逆問題に対処可能であることを示す。
- 参考スコア(独自算出の注目度): 7.272791116569247
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents NSGA-PINN, a multi-objective optimization framework for
effective training of Physics-Informed Neural Networks (PINNs). The proposed
framework uses the Non-dominated Sorting Genetic Algorithm (NSGA-II) to enable
traditional stochastic gradient optimization algorithms (e.g., ADAM) to escape
local minima effectively. Additionally, the NSGA-II algorithm enables
satisfying the initial and boundary conditions encoded into the loss function
during physics-informed training precisely. We demonstrate the effectiveness of
our framework by applying NSGA-PINN to several ordinary and partial
differential equation problems. In particular, we show that the proposed
framework can handle challenging inverse problems with noisy data.
- Abstract(参考訳): 本稿では,物理情報ニューラルネットワーク(PINN)を効果的に学習するための多目的最適化フレームワークNSGA-PINNを提案する。
提案手法は,非支配的ソーティング遺伝的アルゴリズム (NSGA-II) を用いて,従来の確率勾配最適化アルゴリズム (ADAM) を用いて局所最小化を効果的に回避する。
さらに、NSGA-IIアルゴリズムは、物理インフォームドトレーニング中に損失関数に符号化された初期条件と境界条件を満たすことができる。
NSGA-PINNをいくつかの常微分方程式および偏微分方程式問題に適用することにより,本フレームワークの有効性を示す。
特に,提案手法はノイズの多いデータによる逆問題に対処可能であることを示す。
関連論文リスト
- Enriched Physics-informed Neural Networks for Dynamic
Poisson-Nernst-Planck Systems [0.8192907805418583]
本稿では、動的Poisson-Nernst-Planck(PNP)方程式を解くために、メッシュレス深層学習アルゴリズム、EPINN(enriched Physics-informed Neural Network)を提案する。
EPINNは、従来の物理インフォームドニューラルネットワークを基盤フレームワークとして、損失関数のバランスをとるために適応的な損失重みを追加する。
数値計算の結果, 結合された非線形系の解法において, 従来の数値法よりも適用性が高いことがわかった。
論文 参考訳(メタデータ) (2024-02-01T02:57:07Z) - Dynamically configured physics-informed neural network in topology
optimization applications [4.403140515138818]
物理インフォームドニューラルネットワーク(PINN)は、前方問題を解決する際に大量のデータを生成するのを避けることができる。
動的に構成された PINN-based Topology Optimization (DCPINN-TO) 法を提案する。
変位予測と最適化結果の精度は,DCPINN-TO法が効率的かつ効率的であることを示している。
論文 参考訳(メタデータ) (2023-12-12T05:35:30Z) - Fixing the NTK: From Neural Network Linearizations to Exact Convex
Programs [63.768739279562105]
学習目標に依存しない特定のマスクウェイトを選択する場合、このカーネルはトレーニングデータ上のゲートReLUネットワークのNTKと等価であることを示す。
この目標への依存の欠如の結果として、NTKはトレーニングセット上の最適MKLカーネルよりもパフォーマンスが良くない。
論文 参考訳(メタデータ) (2023-09-26T17:42:52Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - AskewSGD : An Annealed interval-constrained Optimisation method to train
Quantized Neural Networks [12.229154524476405]
我々は、深層ニューラルネットワーク(DNN)を量子化重みでトレーニングするための新しいアルゴリズム、Annealed Skewed SGD - AskewSGDを開発した。
アクティブなセットと実行可能な方向を持つアルゴリズムとは異なり、AskewSGDは実行可能な全セットの下でのプロジェクションや最適化を避けている。
実験結果から,AskewSGDアルゴリズムは古典的ベンチマークの手法と同等以上の性能を示した。
論文 参考訳(メタデータ) (2022-11-07T18:13:44Z) - Decomposition of Matrix Product States into Shallow Quantum Circuits [62.5210028594015]
テンソルネットワーク(TN)アルゴリズムは、パラメタライズド量子回路(PQC)にマッピングできる
本稿では,現実的な量子回路を用いてTN状態を近似する新しいプロトコルを提案する。
その結果、量子回路の逐次的な成長と最適化を含む1つの特定のプロトコルが、他の全ての手法より優れていることが明らかとなった。
論文 参考訳(メタデータ) (2022-09-01T17:08:41Z) - Training multi-objective/multi-task collocation physics-informed neural
network with student/teachers transfer learnings [0.0]
本稿では,事前学習ステップとネット間知識伝達アルゴリズムを用いたPINNトレーニングフレームワークを提案する。
多目的最適化アルゴリズムは、競合する制約のある物理的インフォームドニューラルネットワークの性能を向上させることができる。
論文 参考訳(メタデータ) (2021-07-24T00:43:17Z) - LocalDrop: A Hybrid Regularization for Deep Neural Networks [98.30782118441158]
本稿では,ローカルラデマチャー複雑性を用いたニューラルネットワークの正規化のための新しい手法であるLocalDropを提案する。
フルコネクテッドネットワーク(FCN)と畳み込みニューラルネットワーク(CNN)の両方のための新しい正規化機能は、ローカルラデマチャー複雑さの上限提案に基づいて開発されました。
論文 参考訳(メタデータ) (2021-03-01T03:10:11Z) - A Dynamical View on Optimization Algorithms of Overparameterized Neural
Networks [23.038631072178735]
我々は、一般的に使用される最適化アルゴリズムの幅広いクラスについて考察する。
その結果、ニューラルネットワークの収束挙動を利用することができる。
このアプローチは他の最適化アルゴリズムやネットワーク理論にも拡張できると考えています。
論文 参考訳(メタデータ) (2020-10-25T17:10:22Z) - Stochastic Markov Gradient Descent and Training Low-Bit Neural Networks [77.34726150561087]
本稿では,量子化ニューラルネットワークのトレーニングに適用可能な離散最適化手法であるGradient Markov Descent (SMGD)を紹介する。
アルゴリズム性能の理論的保証と数値的な結果の促進を提供する。
論文 参考訳(メタデータ) (2020-08-25T15:48:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。