論文の概要: VI-PINNs: Variance-involved Physics-informed Neural Networks for Fast
and Accurate Prediction of Partial Differential Equations
- arxiv url: http://arxiv.org/abs/2211.16753v1
- Date: Wed, 30 Nov 2022 05:45:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 18:16:43.482297
- Title: VI-PINNs: Variance-involved Physics-informed Neural Networks for Fast
and Accurate Prediction of Partial Differential Equations
- Title(参考訳): VI-PINNs:偏微分方程式の高速かつ正確な予測のための可変物理インフォームドニューラルネットワーク
- Authors: Bin Shan, Ye Li and Shengjun Huang
- Abstract要約: 分散の影響を考慮し、より良い予測を行うためのVI-PINNを提案する。
高速かつ正確なトレーニングのために、修正された負の対数損失と補助タスクを導入する。
- 参考スコア(独自算出の注目度): 31.084980802442793
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although physics-informed neural networks(PINNs) have progressed a lot in
many real applications recently, there remains problems to be further studied,
such as achieving more accurate results, taking less training time, and
quantifying the uncertainty of the predicted results. Recent advances in PINNs
have indeed significantly improved the performance of PINNs in many aspects,
but few have considered the effect of variance in the training process. In this
work, we take into consideration the effect of variance and propose our
VI-PINNs to give better predictions. We output two values in the final layer of
the network to represent the predicted mean and variance respectively, and the
latter is used to represent the uncertainty of the output. A modified negative
log-likelihood loss and an auxiliary task are introduced for fast and accurate
training. We perform several experiments on a wide range of different problems
to highlight the advantages of our approach. The results convey that our method
not only gives more accurate predictions but also converges faster.
- Abstract(参考訳): 物理インフォームドニューラルネットワーク(PINN)は、近年多くの実アプリケーションで多くの進歩を遂げているが、より正確な結果の達成、トレーニング時間の短縮、予測結果の不確かさの定量化など、さらなる研究が必要である。
PINNの最近の進歩は、多くの面でPINNの性能を著しく向上させてきたが、トレーニング過程におけるばらつきの影響を考慮に入れているものはほとんどない。
本研究では, 分散の影響を考慮し, より良い予測を行うためのVI-PINNを提案する。
予測平均と分散を表すためにネットワークの最終層に2つの値を出力し、後者は出力の不確実性を表すために使用される。
高速かつ正確なトレーニングのために、修正された負の対数損失と補助タスクを導入する。
我々は、アプローチの利点を強調するために、幅広い異なる問題についていくつかの実験を行った。
その結果,本手法はより正確な予測を与えるだけでなく,より高速に収束することがわかった。
関連論文リスト
- DiffGrad for Physics-Informed Neural Networks [0.0]
バーガーズ方程式(英: Burgers' equation)は流体力学の基本方程式であり、PINNで広く用いられている。
本稿では,DiffGradをPINNに組み込むことで,バーガースの方程式を解く新しい手法を提案する。
論文 参考訳(メタデータ) (2024-09-05T04:39:35Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Graph Neural Networks for Forecasting Multivariate Realized Volatility
with Spillover Effects [16.260673340556135]
提案モデルでは, マルチホップ近傍からの流出効果を取り入れ, 非線形関係を捉え, 損失関数の異なるフレキシブルなトレーニングを行う。
この結果から,擬似的損失によるトレーニングがモデル性能の大幅な向上につながることが示唆された。
論文 参考訳(メタデータ) (2023-08-01T14:39:03Z) - Negative Feedback Training: A Novel Concept to Improve Robustness of NVCIM DNN Accelerators [11.832487701641723]
非揮発性メモリ(NVM)デバイスは、Deep Neural Network(DNN)推論の実行時のエネルギー効率とレイテンシが優れている。
ネットワークから取得したマルチスケールノイズ情報を活用した負フィードバックトレーニング(NFT)を提案する。
提案手法は,既存の最先端手法よりも46.71%の精度向上を実現している。
論文 参考訳(メタデータ) (2023-05-23T22:56:26Z) - Bridging Precision and Confidence: A Train-Time Loss for Calibrating
Object Detection [58.789823426981044]
本稿では,境界ボックスのクラス信頼度を予測精度に合わせることを目的とした,新たな補助損失定式化を提案する。
その結果,列車の走行時間損失はキャリブレーション基準を超過し,キャリブレーション誤差を低減させることがわかった。
論文 参考訳(メタデータ) (2023-03-25T08:56:21Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Confidence-Nets: A Step Towards better Prediction Intervals for
regression Neural Networks on small datasets [0.0]
そこで本研究では,予測の不確かさを推定し,精度を向上し,予測変動の間隔を与えるアンサンブル手法を提案する。
提案手法は様々なデータセットで検証され,ニューラルネットワークモデルの性能が大幅に向上した。
論文 参考訳(メタデータ) (2022-10-31T06:38:40Z) - A Dimension-Augmented Physics-Informed Neural Network (DaPINN) with High
Level Accuracy and Efficiency [0.20391237204597357]
物理インフォームドニューラルネットワーク(PINN)は様々な分野に広く応用されている。
本稿では,新しい次元拡張物理インフォームドニューラルネットワーク(DaPINN)を提案する。
DaPINNは同時に、PINNの精度と効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-10-19T15:54:37Z) - Revisiting PINNs: Generative Adversarial Physics-informed Neural
Networks and Point-weighting Method [70.19159220248805]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)を数値的に解くためのディープラーニングフレームワークを提供する
本稿では,GA機構とPINNの構造を統合したGA-PINNを提案する。
本稿では,Adaboost法の重み付け戦略からヒントを得て,PINNのトレーニング効率を向上させるためのPW法を提案する。
論文 参考訳(メタデータ) (2022-05-18T06:50:44Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z) - Network Moments: Extensions and Sparse-Smooth Attacks [59.24080620535988]
ガウス入力を受ける小片方向線形(PL)ネットワーク(Affine,ReLU,Affine)の第1モーメントと第2モーメントの正確な解析式を導出する。
本研究では,新しい分散式を効率的に近似し,より厳密な分散推定を行うことを示す。
論文 参考訳(メタデータ) (2020-06-21T11:36:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。