論文の概要: Kinematically consistent recurrent neural networks for learning inverse
problems in wave propagation
- arxiv url: http://arxiv.org/abs/2110.03903v1
- Date: Fri, 8 Oct 2021 05:51:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-11 16:23:19.446175
- Title: Kinematically consistent recurrent neural networks for learning inverse
problems in wave propagation
- Title(参考訳): 波動伝播における逆問題学習のための運動的一貫したリカレントニューラルネットワーク
- Authors: Wrik Mallik, Rajeev K. Jaiman and Jasmin Jelovica
- Abstract要約: そこで我々は,新しい運動論的に整合した物理に基づく機械学習モデルを提案する。
特に,波動伝搬における逆問題について物理的に解釈可能な学習を試みる。
控えめなトレーニングデータであっても、このキネマティック一貫性のあるネットワークは、通常のLSTM予測の誤り規範である$L_infty$を、それぞれ約45%と55%削減することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Although machine learning (ML) is increasingly employed recently for
mechanistic problems, the black-box nature of conventional ML architectures
lacks the physical knowledge to infer unforeseen input conditions. This implies
both severe overfitting during a dearth of training data and inadequate
physical interpretability, which motivates us to propose a new kinematically
consistent, physics-based ML model. In particular, we attempt to perform
physically interpretable learning of inverse problems in wave propagation
without suffering overfitting restrictions. Towards this goal, we employ long
short-term memory (LSTM) networks endowed with a physical,
hyperparameter-driven regularizer, performing penalty-based enforcement of the
characteristic geometries. Since these characteristics are the kinematical
invariances of wave propagation phenomena, maintaining their structure provides
kinematical consistency to the network. Even with modest training data, the
kinematically consistent network can reduce the $L_1$ and $L_\infty$ error
norms of the plain LSTM predictions by about 45% and 55%, respectively. It can
also increase the horizon of the plain LSTM's forecasting by almost two times.
To achieve this, an optimal range of the physical hyperparameter, analogous to
an artificial bulk modulus, has been established through numerical experiments.
The efficacy of the proposed method in alleviating overfitting, and the
physical interpretability of the learning mechanism, are also discussed. Such
an application of kinematically consistent LSTM networks for wave propagation
learning is presented here for the first time.
- Abstract(参考訳): 近年、機械学習(ML)は機械的問題にますます採用されているが、従来のMLアーキテクチャのブラックボックスの性質は、予期せぬ入力条件を推測する物理知識を欠いている。
これは、トレーニングデータの変形中の過度なオーバーフィッティングと、不適切な物理的解釈可能性の両方を意味しており、新しいキネマティックに一貫性のある物理ベースのMLモデルを提案する動機となっている。
特に,波浪伝播における逆問題に対する物理的に解釈可能な学習を過度な制限に苦しむことなく行おうとする。
この目的のために、我々は、物理的にハイパーパラメータ駆動のレギュレータを備えた長期記憶(LSTM)ネットワークを使用し、特徴的ジオメトリのペナルティに基づく適用を行う。
これらの特性は波動伝播現象のキネマティックな不変性であるため、その構造を維持することはネットワークにキネマティックな一貫性をもたらす。
控えめなトレーニングデータであっても、このキネマティック一貫性のあるネットワークは、通常のLSTM予測の$L_1$と$L_\infty$エラーノルムを、それぞれ約45%と55%削減することができる。
また、LSTMの予測の地平線をほぼ2倍に増やすこともできる。
これを実現するために、人工バルク弾性率に類似した物理ハイパーパラメータの最適範囲が数値実験によって確立されている。
また, オーバーフィッティングを緩和する手法の有効性, 学習機構の物理的解釈性についても検討した。
波動伝播学習のための運動論的一貫したLSTMネットワークの応用を初めて紹介する。
関連論文リスト
- Physics-Informed Machine Learning for Seismic Response Prediction OF Nonlinear Steel Moment Resisting Frame Structures [6.483318568088176]
PiML法は、非線形構造の地震応答をモデル化するために、科学的原理と物理法則をディープニューラルネットワークに統合する。
運動方程式を操作することは、システムの非線形性を学習し、物理的に解釈可能な結果の中で解を閉じ込めるのに役立つ。
結果、既存の物理誘導LSTMモデルよりも複雑なデータを処理し、他の非物理データ駆動ネットワークより優れている。
論文 参考訳(メタデータ) (2024-02-28T02:16:03Z) - Physics-Informed Neural Networks with Hard Linear Equality Constraints [9.101849365688905]
本研究は,線形等式制約を厳格に保証する物理インフォームドニューラルネットワークKKT-hPINNを提案する。
溶融タンク炉ユニット, 抽出蒸留サブシステム, 化学プラントのアスペンモデル実験により, このモデルが予測精度をさらに高めることを示した。
論文 参考訳(メタデータ) (2024-02-11T17:40:26Z) - Physics-Informed Deep Learning of Rate-and-State Fault Friction [0.0]
我々は, 前方問題と非線形欠陥摩擦パラメータの直接逆変換のためのマルチネットワークPINNを開発した。
本稿では1次元および2次元のストライク・スリップ断層に対する速度・状態摩擦を考慮した計算PINNフレームワークを提案する。
その結果, 断層におけるパラメータ逆転のネットワークは, 結合した物質変位のネットワークよりもはるかに優れていることがわかった。
論文 参考訳(メタデータ) (2023-12-14T23:53:25Z) - Machine learning in and out of equilibrium [58.88325379746631]
我々の研究は、統計物理学から適応したフォッカー・プランク法を用いて、これらの平行線を探索する。
我々は特に、従来のSGDでは平衡が切れている長期的限界におけるシステムの定常状態に焦点を当てる。
本稿では,ミニバッチの置き換えを伴わない新しいランゲヴィンダイナミクス(SGLD)を提案する。
論文 参考訳(メタデータ) (2023-06-06T09:12:49Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - Momentum Diminishes the Effect of Spectral Bias in Physics-Informed
Neural Networks [72.09574528342732]
物理インフォームドニューラルネットワーク(PINN)アルゴリズムは、偏微分方程式(PDE)を含む幅広い問題を解く上で有望な結果を示している。
彼らはしばしば、スペクトルバイアスと呼ばれる現象のために、ターゲット関数が高周波の特徴を含むとき、望ましい解に収束しない。
本研究は, 運動量による勾配降下下で進化するPINNのトレーニングダイナミクスを, NTK(Neural Tangent kernel)を用いて研究するものである。
論文 参考訳(メタデータ) (2022-06-29T19:03:10Z) - Revisit Geophysical Imaging in A New View of Physics-informed Generative
Adversarial Learning [2.12121796606941]
完全な波形反転は高分解能地下モデルを生成する。
最小二乗関数を持つFWIは、局所ミニマ問題のような多くの欠点に悩まされる。
偏微分方程式とニューラルネットワークを用いた最近の研究は、2次元FWIに対して有望な性能を示している。
本稿では,波動方程式を識別ネットワークに統合し,物理的に一貫したモデルを正確に推定する,教師なし学習パラダイムを提案する。
論文 参考訳(メタデータ) (2021-09-23T15:54:40Z) - The Limiting Dynamics of SGD: Modified Loss, Phase Space Oscillations,
and Anomalous Diffusion [29.489737359897312]
勾配降下法(SGD)を訓練した深部ニューラルネットワークの限界ダイナミクスについて検討する。
これらのダイナミクスを駆動する重要な要素は、本来のトレーニング損失ではなく、位相空間の振動を引き起こす速度と確率電流を暗黙的に規則化する修正損失の組み合わせであることを示す。
論文 参考訳(メタデータ) (2021-07-19T20:18:57Z) - Quantum-tailored machine-learning characterization of a superconducting
qubit [50.591267188664666]
我々は,量子デバイスのダイナミクスを特徴付ける手法を開発し,デバイスパラメータを学習する。
このアプローチは、数値的に生成された実験データに基づいてトレーニングされた物理に依存しないリカレントニューラルネットワークより優れている。
このデモンストレーションは、ドメイン知識を活用することで、この特徴付けタスクの正確性と効率が向上することを示す。
論文 参考訳(メタデータ) (2021-06-24T15:58:57Z) - Gradient Starvation: A Learning Proclivity in Neural Networks [97.02382916372594]
グラディエント・スターベーションは、タスクに関連する機能のサブセットのみをキャプチャすることで、クロスエントロピー損失を最小化するときに発生する。
この研究は、ニューラルネットワークにおけるそのような特徴不均衡の出現に関する理論的説明を提供する。
論文 参考訳(メタデータ) (2020-11-18T18:52:08Z) - Neural networks with late-phase weights [66.72777753269658]
学習後期に重みのサブセットを組み込むことで,SGDの解をさらに改善できることを示す。
学習の終わりに、重み空間における空間平均を取ることにより、1つのモデルを取得する。
論文 参考訳(メタデータ) (2020-07-25T13:23:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。