論文の概要: Transfer Learning Enhanced Full Waveform Inversion
- arxiv url: http://arxiv.org/abs/2302.11259v2
- Date: Fri, 1 Dec 2023 13:22:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-04 19:06:50.170277
- Title: Transfer Learning Enhanced Full Waveform Inversion
- Title(参考訳): トランスファー学習による全波形インバージョン
- Authors: Stefan Kollmannsberger, Divya Singh and Leon Herrmann
- Abstract要約: フルウェーブフォーム・インバージョン(FWI)を用いた非破壊検査の分野でニューラルネットワークを好適に活用する方法を提案する。
提案手法は、隣接最適化内でニューラルネットワークを用いて、ドメイン内の未知の物質分布を識別する。
- 参考スコア(独自算出の注目度): 2.3020018305241337
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose a way to favorably employ neural networks in the field of
non-destructive testing using Full Waveform Inversion (FWI). The presented
methodology discretizes the unknown material distribution in the domain with a
neural network within an adjoint optimization. To further increase efficiency
of the FWI, pretrained neural networks are used to provide a good starting
point for the inversion. This reduces the number of iterations in the Full
Waveform Inversion for specific, yet generalizable settings.
- Abstract(参考訳): 本稿では,Full Waveform Inversion (FWI) を用いた非破壊検査分野において,ニューラルネットワークを好適に活用する方法を提案する。
提案手法は、隣接最適化内のニューラルネットワークを用いて、ドメイン内の未知の物質分布を識別する。
fwiの効率をさらに高めるために、事前訓練されたニューラルネットワークを使用して、反転の出発点を提供する。
これにより、特定のが一般化可能な設定に対するFull Waveform Inversionのイテレーションの数を減らすことができる。
関連論文リスト
- Accelerating Full Waveform Inversion By Transfer Learning [1.0881446298284452]
フルウェーブフォーム・インバージョン (FWI) は、波動伝搬によって得られた疎測定データに基づいて材料フィールドを再構築する強力なツールである。
特定の問題に対して、ニューラルネットワーク(NN)による材料フィールドの識別は、対応する最適化問題の堅牢性と再構築品質を向上させる。
本稿では,NNベースのFWIをさらに改善するために,新しいトランスファー学習手法を提案する。
論文 参考訳(メタデータ) (2024-08-01T16:39:06Z) - Deep Learning without Global Optimization by Random Fourier Neural Networks [0.0]
本稿では、ランダムな複雑な指数関数活性化関数を利用する様々なディープニューラルネットワークのための新しいトレーニングアルゴリズムを提案する。
提案手法では,マルコフ連鎖モンテカルロサンプリング法を用いてネットワーク層を反復的に訓練する。
複雑な指数的活性化関数を持つ残留ネットワークの理論的近似速度を一貫して達成する。
論文 参考訳(メタデータ) (2024-07-16T16:23:40Z) - GaborPINN: Efficient physics informed neural networks using
multiplicative filtered networks [0.0]
物理インフォームドニューラルネットワーク(PINN)は、ニューラルネットワーク(NN)で表される機能的ウェーブフィールドソリューションを提供する
本稿では,学習における波動場の特徴のいくつかを組み込んだ乗算フィルタネットワークを用いた改良PINNを提案する。
提案手法は,従来のPINNと比較して,収束速度が最大2マグニチュード向上する。
論文 参考訳(メタデータ) (2023-08-10T19:51:00Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Simple initialization and parametrization of sinusoidal networks via
their kernel bandwidth [92.25666446274188]
従来の活性化機能を持つネットワークの代替として、活性化を伴う正弦波ニューラルネットワークが提案されている。
まず,このような正弦波ニューラルネットワークの簡易版を提案する。
次に、ニューラルタンジェントカーネルの観点からこれらのネットワークの挙動を分析し、そのカーネルが調整可能な帯域幅を持つ低域フィルタを近似することを実証する。
論文 参考訳(メタデータ) (2022-11-26T07:41:48Z) - Deep Convolutional Learning-Aided Detector for Generalized Frequency
Division Multiplexing with Index Modulation [0.0]
提案手法は、まずゼロフォース検出器(ZF)を用いて受信信号を前処理し、その後、畳み込みニューラルネットワーク(CNN)と完全連結ニューラルネットワーク(FCNN)からなるニューラルネットワークを用いる。
FCNN部は2つの完全に接続された層しか使用せず、複雑さとBER(bit error rate)パフォーマンスのトレードオフをもたらすことができる。
提案したディープ畳み込みニューラルネットワークに基づく検出・復調方式は,ZF検出器よりも高いBER性能を示し,複雑性が増大することが実証されている。
論文 参考訳(メタデータ) (2022-02-06T22:18:42Z) - Non-Gradient Manifold Neural Network [79.44066256794187]
ディープニューラルネットワーク(DNN)は通常、勾配降下による最適化に数千のイテレーションを要します。
非次最適化に基づく新しい多様体ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T06:39:13Z) - Learning Frequency Domain Approximation for Binary Neural Networks [68.79904499480025]
フーリエ周波数領域における符号関数の勾配を正弦関数の組み合わせを用いて推定し,BNNの訓練を行う。
いくつかのベンチマークデータセットとニューラルネットワークの実験により、この手法で学習したバイナリネットワークが最先端の精度を達成することが示されている。
論文 参考訳(メタデータ) (2021-03-01T08:25:26Z) - Hyperparameter Optimization in Binary Communication Networks for
Neuromorphic Deployment [4.280642750854163]
ニューロモルフィック展開のためのニューラルネットワークのトレーニングは簡単ではない。
本稿では,ニューロモルフィックハードウェアに展開可能なバイナリ通信ネットワークをトレーニングするためのアルゴリズムのハイパーパラメータを最適化するためのベイズ的手法を提案する。
このアルゴリズムでは,データセット毎のハイパーパラメータを最適化することにより,データセット毎の前の最先端よりも精度が向上できることが示されている。
論文 参考訳(メタデータ) (2020-04-21T01:15:45Z) - Beyond Dropout: Feature Map Distortion to Regularize Deep Neural
Networks [107.77595511218429]
本稿では,ディープニューラルネットワークの中間層に関連する実験的なRademacher複雑性について検討する。
上記の問題に対処するための特徴歪み法(Disout)を提案する。
より高い試験性能を有するディープニューラルネットワークを作製するための特徴写像歪みの優位性を解析し、実証した。
論文 参考訳(メタデータ) (2020-02-23T13:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。