論文の概要: Accelerating Full Waveform Inversion By Transfer Learning
- arxiv url: http://arxiv.org/abs/2408.00695v1
- Date: Thu, 1 Aug 2024 16:39:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-04 19:57:15.751099
- Title: Accelerating Full Waveform Inversion By Transfer Learning
- Title(参考訳): 伝達学習による全波形インバージョン高速化
- Authors: Divya Shyam Singh, Leon Herrmann, Qing Sun, Tim Bürchner, Felix Dietrich, Stefan Kollmannsberger,
- Abstract要約: フルウェーブフォーム・インバージョン (FWI) は、波動伝搬によって得られた疎測定データに基づいて材料フィールドを再構築する強力なツールである。
特定の問題に対して、ニューラルネットワーク(NN)による材料フィールドの識別は、対応する最適化問題の堅牢性と再構築品質を向上させる。
本稿では,NNベースのFWIをさらに改善するために,新しいトランスファー学習手法を提案する。
- 参考スコア(独自算出の注目度): 1.0881446298284452
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Full waveform inversion (FWI) is a powerful tool for reconstructing material fields based on sparsely measured data obtained by wave propagation. For specific problems, discretizing the material field with a neural network (NN) improves the robustness and reconstruction quality of the corresponding optimization problem. We call this method NN-based FWI. Starting from an initial guess, the weights of the NN are iteratively updated to fit the simulated wave signals to the sparsely measured data set. For gradient-based optimization, a suitable choice of the initial guess, i.e., a suitable NN weight initialization, is crucial for fast and robust convergence. In this paper, we introduce a novel transfer learning approach to further improve NN-based FWI. This approach leverages supervised pretraining to provide a better NN weight initialization, leading to faster convergence of the subsequent optimization problem. Moreover, the inversions yield physically more meaningful local minima. The network is pretrained to predict the unknown material field using the gradient information from the first iteration of conventional FWI. In our computational experiments on two-dimensional domains, the training data set consists of reference simulations with arbitrarily positioned elliptical voids of different shapes and orientations. We compare the performance of the proposed transfer learning NN-based FWI with three other methods: conventional FWI, NN-based FWI without pretraining and conventional FWI with an initial guess predicted from the pretrained NN. Our results show that transfer learning NN-based FWI outperforms the other methods in terms of convergence speed and reconstruction quality.
- Abstract(参考訳): フルウェーブフォーム・インバージョン (FWI) は、波動伝搬によって得られた疎測定データに基づいて材料フィールドを再構築する強力なツールである。
特定の問題に対して、ニューラルネットワーク(NN)による材料フィールドの識別は、対応する最適化問題の堅牢性と再構築品質を向上させる。
この手法をNNベースのFWIと呼ぶ。
最初の推測から始めると、NNの重みは反復的に更新され、シミュレーションされた波信号と疎測定されたデータセットに適合する。
勾配に基づく最適化では、初期推定の適切な選択、すなわち適切なNN重み初期化が高速で堅牢な収束に不可欠である。
本稿では,NNベースのFWIをさらに改善するために,新しいトランスファー学習手法を提案する。
このアプローチでは、教師付き事前学習を活用して、NNウェイトの初期化を向上し、その後の最適化問題をより早く収束させる。
さらに、反転は物理的により有意義な局所ミニマをもたらす。
ネットワークは、従来のFWIの第1イテレーションからの勾配情報を用いて、未知の物質場を予測するために事前訓練される。
2次元領域に関する計算実験では、トレーニングデータセットは、異なる形状と向きの楕円空隙を任意に配置した基準シミュレーションで構成されている。
提案手法は, 従来のFWI, NNベースのFWI, 従来のFWIと, 事前訓練したNNから予測された推定値とを比較した。
この結果から, NN-based FWIはコンバージェンス速度や再構成品質において, 他の手法よりも優れていることがわかった。
関連論文リスト
- Unrolled denoising networks provably learn optimal Bayesian inference [54.79172096306631]
我々は、近似メッセージパッシング(AMP)のアンロールに基づくニューラルネットワークの最初の厳密な学習保証を証明した。
圧縮センシングでは、製品から引き出されたデータに基づいてトレーニングを行うと、ネットワークの層がベイズAMPで使用されるのと同じデノイザーに収束することを示す。
論文 参考訳(メタデータ) (2024-09-19T17:56:16Z) - Transfer Learning Enhanced Full Waveform Inversion [2.3020018305241337]
フルウェーブフォーム・インバージョン(FWI)を用いた非破壊検査の分野でニューラルネットワークを好適に活用する方法を提案する。
提案手法は、隣接最適化内でニューラルネットワークを用いて、ドメイン内の未知の物質分布を識別する。
論文 参考訳(メタデータ) (2023-02-22T10:12:07Z) - Optimal Power Flow Based on Physical-Model-Integrated Neural Network
with Worth-Learning Data Generation [1.370633147306388]
本稿では,物理モデル統合ニューラルネットワーク(NN)に基づくOPF解法を提案する。
提案手法は,従来のNN解法に比べて50%以上の制約違反と最適性損失を減少させることを示した。
論文 参考訳(メタデータ) (2023-01-10T03:06:08Z) - An Adaptive and Stability-Promoting Layerwise Training Approach for Sparse Deep Neural Network Architecture [0.0]
この研究は、与えられたトレーニングデータセットに対してうまく一般化するディープニューラルネットワーク(DNN)アーキテクチャを開発するための2段階適応フレームワークを提案する。
第1段階では、新しいレイヤを毎回追加し、前のレイヤでパラメータを凍結することで独立してトレーニングする、レイヤワイズトレーニングアプローチが採用されている。
本稿では, 学習アルゴリズムの望ましい特性として, エプシロン・デルタ安定促進の概念を導入し, 多様体正規化を用いることで, エプシロン・デルタ安定促進アルゴリズムが得られることを示す。
論文 参考訳(メタデータ) (2022-11-13T09:51:16Z) - Physics-informed neural networks for gravity currents reconstruction
from limited data [0.0]
本研究では, 物理インフォームドニューラルネットワーク(PINN)を用いた非定常重力電流の3次元再構成について検討した。
PINNコンテキストでは、目的関数がネットワーク予測と観測データとのミスマッチをペナルティ化するニューラルネットワークをトレーニングすることにより、フローフィールドを再構築する。
論文 参考訳(メタデータ) (2022-11-03T11:27:29Z) - On the Explicit Role of Initialization on the Convergence and Implicit
Bias of Overparametrized Linear Networks [1.0323063834827415]
勾配流下で訓練された単層線形ネットワークの新たな解析法を提案する。
正方形損失はその最適値に指数関数的に収束することを示す。
我々は、トレーニングされたネットワークとmin-norm解の間の距離に基づいて、新しい非漸近上界を導出する。
論文 参考訳(メタデータ) (2021-05-13T15:13:51Z) - Learning Frequency Domain Approximation for Binary Neural Networks [68.79904499480025]
フーリエ周波数領域における符号関数の勾配を正弦関数の組み合わせを用いて推定し,BNNの訓練を行う。
いくつかのベンチマークデータセットとニューラルネットワークの実験により、この手法で学習したバイナリネットワークが最先端の精度を達成することが示されている。
論文 参考訳(メタデータ) (2021-03-01T08:25:26Z) - A Meta-Learning Approach to the Optimal Power Flow Problem Under
Topology Reconfigurations [69.73803123972297]
メタラーニング(MTL)アプローチを用いて訓練されたDNNベースのOPF予測器を提案する。
開発したOPF予測器はベンチマークIEEEバスシステムを用いてシミュレーションにより検証される。
論文 参考訳(メタデータ) (2020-12-21T17:39:51Z) - Revisiting Initialization of Neural Networks [72.24615341588846]
ヘッセン行列のノルムを近似し, 制御することにより, 層間における重みのグローバルな曲率を厳密に推定する。
Word2Vec と MNIST/CIFAR 画像分類タスクの実験により,Hessian ノルムの追跡が診断ツールとして有用であることが確認された。
論文 参考訳(メタデータ) (2020-04-20T18:12:56Z) - Distance-Based Regularisation of Deep Networks for Fine-Tuning [116.71288796019809]
我々は,仮説クラスを,初期訓練前の重みを中心にした小さな球面に制約するアルゴリズムを開発した。
実験的な評価は、我々のアルゴリズムがうまく機能していることを示し、理論的な結果を裏付けるものである。
論文 参考訳(メタデータ) (2020-02-19T16:00:47Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。