論文の概要: On the uncertainty analysis of the data-enabled physics-informed neural
network for solving neutron diffusion eigenvalue problem
- arxiv url: http://arxiv.org/abs/2303.08455v2
- Date: Thu, 16 Mar 2023 05:13:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 11:22:47.545321
- Title: On the uncertainty analysis of the data-enabled physics-informed neural
network for solving neutron diffusion eigenvalue problem
- Title(参考訳): 中性子拡散固有値問題を解くためのデータ有効物理形ニューラルネットワークの不確実性解析について
- Authors: Yu Yang, Helin Gong, Qihong Yang, Yangtao Deng, Qiaolin He, Shiquan
Zhang
- Abstract要約: いくつかの観点から中性子拡散固有値問題の計算におけるDEPINNの性能について検討する。
ノイズの影響を低減し,ノイズ先行データの利用を改善するために,革新的な区間損失関数を提案する。
本稿では, 原子炉物理の実用化に向けた改良型DEPINNの実現可能性を確認する。
- 参考スコア(独自算出の注目度): 4.0275959184316825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In practical engineering experiments, the data obtained through detectors are
inevitably noisy. For the already proposed data-enabled physics-informed neural
network (DEPINN) \citep{DEPINN}, we investigate the performance of DEPINN in
calculating the neutron diffusion eigenvalue problem from several perspectives
when the prior data contain different scales of noise. Further, in order to
reduce the effect of noise and improve the utilization of the noisy prior data,
we propose innovative interval loss functions and give some rigorous
mathematical proofs. The robustness of DEPINN is examined on two typical
benchmark problems through a large number of numerical results, and the
effectiveness of the proposed interval loss function is demonstrated by
comparison. This paper confirms the feasibility of the improved DEPINN for
practical engineering applications in nuclear reactor physics.
- Abstract(参考訳): 実際の工学実験では、検出器によって得られたデータは必然的にうるさい。
既に提案されているデータ対応物理インフォームドニューラルネットワーク (DEPINN) \citep{DEPINN} について, 先行データがノイズのスケールが異なる場合の中性子拡散固有値問題の計算におけるDEPINNの性能について検討した。
さらに,ノイズの影響を低減し,ノイズ先行データの利用性を向上させるために,革新的区間損失関数を提案し,厳密な数学的証明を与える。
DEPINNのロバスト性は2つの典型的なベンチマーク問題に対して,多数の数値結果を用いて検討し,提案した区間損失関数の有効性を比較検討した。
本稿では, 原子炉物理の実用化に向けた改良型DEPINNの実現可能性を確認する。
関連論文リスト
- Monte Carlo Neural Operator for Learning PDEs via Probabilistic
Representation [73.59112655492976]
ニューラルネットワークは、偏微分方程式(PDE)系の解写像を近似するためにディープニューラルネットワークを使用する。
We developed a new loss function based on the Feynman-Kac formula and called the developed Neural operator Monte-Carlo Neural Operator (MCNO)
解析の結果,MCNOは複雑な空間条件や時間的ステップを扱う上で,他の教師なし手法と比較して有利であることがわかった。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - Deep learning for full-field ultrasonic characterization [7.120879473925905]
本研究では、最近の機械学習の進歩を活用して、物理に基づくデータ分析プラットフォームを構築する。
直接反転と物理インフォームドニューラルネットワーク(PINN)の2つの論理について検討した。
論文 参考訳(メタデータ) (2023-01-06T05:01:05Z) - Robustness of Physics-Informed Neural Networks to Noise in Sensor Data [0.0]
PINNは、物理に基づくドメイン知識をニューラルネットワークモデルに組み込む効果的な方法であることが示されている。
本研究では、物理インフォームドニューラルネットワークのロバスト性について、データのノイズの大きさについて予備的な調査を行う。
論文 参考訳(メタデータ) (2022-11-22T06:24:43Z) - A Dimension-Augmented Physics-Informed Neural Network (DaPINN) with High
Level Accuracy and Efficiency [0.20391237204597357]
物理インフォームドニューラルネットワーク(PINN)は様々な分野に広く応用されている。
本稿では,新しい次元拡張物理インフォームドニューラルネットワーク(DaPINN)を提案する。
DaPINNは同時に、PINNの精度と効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-10-19T15:54:37Z) - Robust Regression with Highly Corrupted Data via Physics Informed Neural
Networks [4.642273921499256]
物理インフォームドニューラルネットワーク(PINN)は、2つの主要な問題のクラスを解決するために提案されている。
本研究では,ノイズおよび劣化測定データから支配方程式を復元するアルゴリズムの一般化性,精度,効率性を示す。
論文 参考訳(メタデータ) (2022-10-19T15:21:05Z) - Momentum Diminishes the Effect of Spectral Bias in Physics-Informed
Neural Networks [72.09574528342732]
物理インフォームドニューラルネットワーク(PINN)アルゴリズムは、偏微分方程式(PDE)を含む幅広い問題を解く上で有望な結果を示している。
彼らはしばしば、スペクトルバイアスと呼ばれる現象のために、ターゲット関数が高周波の特徴を含むとき、望ましい解に収束しない。
本研究は, 運動量による勾配降下下で進化するPINNのトレーニングダイナミクスを, NTK(Neural Tangent kernel)を用いて研究するものである。
論文 参考訳(メタデータ) (2022-06-29T19:03:10Z) - Evaluating the Adversarial Robustness for Fourier Neural Operators [78.36413169647408]
フーリエ・ニューラル・オペレータ(FNO)は、ゼロショット超解像で乱流をシミュレートした最初の人物である。
我々はノルム有界データ入力摂動に基づくFNOの逆例を生成する。
以上の結果から,モデルの強靭性は摂動レベルの増加とともに急速に低下することが明らかとなった。
論文 参考訳(メタデータ) (2022-04-08T19:19:42Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Physics-guided Loss Functions Improve Deep Learning Performance in
Inverse Scattering [13.529767949868248]
ディープニューラルネットワーク(DNN)技術は、電磁逆散乱問題にうまく応用されている。
トレーニングプロセスにおいて,身体現象が効果的に組み込まれないことを示す。
多重散乱に基づく近接場量を含む損失関数の新しい設計法を提案する。
論文 参考訳(メタデータ) (2021-11-13T16:36:23Z) - Removing Noise from Extracellular Neural Recordings Using Fully
Convolutional Denoising Autoencoders [62.997667081978825]
ノイズの多いマルチチャネル入力からクリーンなニューロン活動信号を生成することを学習する完全畳み込みデノイングオートエンコーダを提案する。
シミュレーションデータを用いた実験結果から,提案手法はノイズ崩壊型ニューラルネットワークの品質を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2021-09-18T14:51:24Z) - Incorporating NODE with Pre-trained Neural Differential Operator for
Learning Dynamics [73.77459272878025]
ニューラル微分演算子(NDO)の事前学習による動的学習における教師付き信号の強化を提案する。
NDOは記号関数のクラスで事前訓練され、これらの関数の軌跡サンプルとそれらの導関数とのマッピングを学習する。
我々は,NDOの出力が,ライブラリの複雑さを適切に調整することで,基礎となる真理微分を適切に近似できることを理論的に保証する。
論文 参考訳(メタデータ) (2021-06-08T08:04:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。