論文の概要: Unsupervised Learning Method for the Wave Equation Based on Finite
Difference Residual Constraints Loss
- arxiv url: http://arxiv.org/abs/2401.12489v1
- Date: Tue, 23 Jan 2024 05:06:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-24 16:58:57.680986
- Title: Unsupervised Learning Method for the Wave Equation Based on Finite
Difference Residual Constraints Loss
- Title(参考訳): 差分残差損失に基づく波動方程式の教師なし学習法
- Authors: Xin Feng, Yi Jiang, Jia-Xian Qin, Lai-Ping Zhang, Xiao-Gang Deng
- Abstract要約: 本稿では,有限差分残差制約に基づく波動方程式の教師なし学習法を提案する。
構造化格子と有限差分法に基づく新しい有限差分残差制約と教師なし学習戦略を構築する。
- 参考スコア(独自算出の注目度): 8.251460531915997
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The wave equation is an important physical partial differential equation, and
in recent years, deep learning has shown promise in accelerating or replacing
traditional numerical methods for solving it. However, existing deep learning
methods suffer from high data acquisition costs, low training efficiency, and
insufficient generalization capability for boundary conditions. To address
these issues, this paper proposes an unsupervised learning method for the wave
equation based on finite difference residual constraints. We construct a novel
finite difference residual constraint based on structured grids and finite
difference methods, as well as an unsupervised training strategy, enabling
convolutional neural networks to train without data and predict the forward
propagation process of waves. Experimental results show that finite difference
residual constraints have advantages over physics-informed neural networks
(PINNs) type physical information constraints, such as easier fitting, lower
computational costs, and stronger source term generalization capability, making
our method more efficient in training and potent in application.
- Abstract(参考訳): 波動方程式は重要な物理偏微分方程式であり、近年では深層学習が従来の数値解法を加速または置き換える可能性を示している。
しかし、既存のディープラーニング手法は、高いデータ取得コスト、低いトレーニング効率、境界条件の一般化能力不足に苦しむ。
これらの問題に対処するために,有限差分残差制約に基づく波動方程式の教師なし学習法を提案する。
本研究では,構造化格子と有限差分法に基づく新しい有限差分残差制約と教師なし学習戦略を構築し,畳み込みニューラルネットワークをデータ無しで訓練し,波の前方伝播過程を予測する。
実験結果から, 有限差分残差制約は, 物理インフォームドニューラルネットワーク(PINN)タイプの物理情報制約に対して, 適合性の容易さ, 計算コストの低減, ソース項の一般化能力の強化といった利点があることがわかった。
関連論文リスト
- Physics Informed Kolmogorov-Arnold Neural Networks for Dynamical Analysis via Efficent-KAN and WAV-KAN [0.12045539806824918]
物理インフォームド・コルモゴロフ・アルノルドニューラルネットワーク(PIKAN)を効率的なKANとWAV-KANにより実装する。
PIKANは従来のディープニューラルネットワークよりも優れた性能を示し、少ないレイヤで同じレベルの精度を実現し、計算オーバーヘッドを低減している。
論文 参考訳(メタデータ) (2024-07-25T20:14:58Z) - Decentralized Learning Strategies for Estimation Error Minimization with Graph Neural Networks [94.2860766709971]
統計的に同一性を持つ無線ネットワークにおける自己回帰的マルコフ過程のサンプリングとリモート推定の課題に対処する。
我々のゴールは、分散化されたスケーラブルサンプリングおよび送信ポリシーを用いて、時間平均推定誤差と/または情報の年齢を最小化することである。
論文 参考訳(メタデータ) (2024-04-04T06:24:11Z) - Enriched Physics-informed Neural Networks for Dynamic
Poisson-Nernst-Planck Systems [0.8192907805418583]
本稿では、動的Poisson-Nernst-Planck(PNP)方程式を解くために、メッシュレス深層学習アルゴリズム、EPINN(enriched Physics-informed Neural Network)を提案する。
EPINNは、従来の物理インフォームドニューラルネットワークを基盤フレームワークとして、損失関数のバランスをとるために適応的な損失重みを追加する。
数値計算の結果, 結合された非線形系の解法において, 従来の数値法よりも適用性が高いことがわかった。
論文 参考訳(メタデータ) (2024-02-01T02:57:07Z) - An Unsupervised Deep Learning Approach for the Wave Equation Inverse
Problem [12.676629870617337]
フルウェーブフォーム・インバージョン(FWI)は、高分解能地下物理パラメータを推定する強力な物理画像技術である。
観測の限界、限られたショットや受信機、ランダムノイズなどにより、従来の逆転法は多くの課題に直面している。
物理速度パラメータを正確に再構成することを目的とした教師なし学習手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T08:39:33Z) - Efficient Neural PDE-Solvers using Quantization Aware Training [71.0934372968972]
量子化は、性能を維持しながら推論の計算コストを下げることができることを示す。
4つの標準PDEデータセットと3つのネットワークアーキテクチャの結果、量子化対応のトレーニングは、設定と3桁のFLOPで機能することがわかった。
論文 参考訳(メタデータ) (2023-08-14T09:21:19Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - Finite Volume Neural Network: Modeling Subsurface Contaminant Transport [0.880802134366532]
有限ボリュームニューラルネットワークと呼ばれる新しいアプローチを紹介します。
FINN法は、偏微分方程式を扱うためによく知られた有限体積法の数値構造を採用する。
FINNは, 合成データと実データの両方に適用した場合, 優れた一般化能力を示すことを示す。
論文 参考訳(メタデータ) (2021-04-13T08:23:44Z) - On Theory-training Neural Networks to Infer the Solution of Highly
Coupled Differential Equations [0.0]
高度に結合した微分方程式の解を学習するための理論学習ネットワークに関する知見を提示する。
本稿では,正規化を活用することにより,これらの振動を除去し,最終的なトレーニング損失を低減し,推定解の精度を向上させる理論学習手法を提案する。
論文 参考訳(メタデータ) (2021-02-09T15:45:08Z) - Developing Constrained Neural Units Over Time [81.19349325749037]
本稿では,既存のアプローチと異なるニューラルネットワークの定義方法に焦点をあてる。
ニューラルネットワークの構造は、データとの相互作用にも拡張される制約の特別なクラスによって定義される。
提案した理論は時間領域にキャストされ, データを順序づけられた方法でネットワークに提示する。
論文 参考訳(メタデータ) (2020-09-01T09:07:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。