論文の概要: A data-driven choice of misfit function for FWI using reinforcement
learning
- arxiv url: http://arxiv.org/abs/2002.03154v1
- Date: Sat, 8 Feb 2020 12:31:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 23:04:46.433598
- Title: A data-driven choice of misfit function for FWI using reinforcement
learning
- Title(参考訳): 強化学習を用いたfwiのためのデータ駆動型ミスフィット関数の選択
- Authors: Bingbing Sun and Tariq Alkhalifah
- Abstract要約: 我々は、DQN(Deep-Q Network)を用いて最適なポリシーを学習し、異なる不適合関数を切り替える適切なタイミングを決定する。
具体的には、従来のL2-ノルムミスフィット関数やOTMF(Optimal-transport Match-filter)のミスフィットをいつ使うべきかを予測するために状態-アクション値関数(Q)を訓練する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the workflow of Full-Waveform Inversion (FWI), we often tune the
parameters of the inversion to help us avoid cycle skipping and obtain high
resolution models. For example, typically start by using objective functions
that avoid cycle skipping, like tomographic and image based or using only low
frequency, and then later, we utilize the least squares misfit to admit high
resolution information. We also may perform an isotropic (acoustic) inversion
to first update the velocity model and then switch to multi-parameter
anisotropic (elastic) inversions to fully recover the complex physics. Such
hierarchical approaches are common in FWI, and they often depend on our manual
intervention based on many factors, and of course, results depend on
experience. However, with the large data size often involved in the inversion
and the complexity of the process, making optimal choices is difficult even for
an experienced practitioner. Thus, as an example, and within the framework of
reinforcement learning, we utilize a deep-Q network (DQN) to learn an optimal
policy to determine the proper timing to switch between different misfit
functions. Specifically, we train the state-action value function (Q) to
predict when to use the conventional L2-norm misfit function or the more
advanced optimal-transport matching-filter (OTMF) misfit to mitigate the
cycle-skipping and obtain high resolution, as well as improve convergence. We
use a simple while demonstrative shifted-signal inversion examples to
demonstrate the basic principles of the proposed method.
- Abstract(参考訳): フルウェーブフォームインバージョン(fwi)のワークフローでは、サイクルスキップを避けるためにインバージョンのパラメータをチューニングし、高解像度モデルを得るのに役立ちます。
例えば、一般的には、トモグラフィや画像ベース、あるいは低周波のみを使用するような、サイクルスキップを避ける客観的関数の使用から始まり、その後、解像度の高い情報を受け入れるために最小2乗のミスフィットを利用する。
また、まず速度モデルを更新するために等方性(音響)反転を行い、次に複雑な物理学を完全に回復するためにマルチパラメータの異方性(弾性)反転に切り替えることもできる。
このような階層的アプローチはfwiでは一般的であり、多くの要因に基づいて手作業による介入に依存することが多い。
しかし、大きなデータサイズが逆転やプロセスの複雑さにしばしば関与しているため、経験豊富な実践者でさえ最適な選択をすることは困難である。
このように、強化学習の枠組みとして、我々は、DQN(Deep-Q Network)を用いて最適なポリシーを学び、異なる不適合関数を切り替える適切なタイミングを決定する。
具体的には、従来のL2-ノルム不適合関数やOTMF(Optimal-transport matching-filter)をいつ使うべきかを予測するために状態作用値関数(Q)を訓練し、サイクルスキッピングを緩和し、高分解能を得るとともに収束性を向上させる。
提案手法の基本原理を実証するために, 簡易かつ実証的なシフト信号反転例を用いる。
関連論文リスト
- Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - LeRF: Learning Resampling Function for Adaptive and Efficient Image Interpolation [64.34935748707673]
最近のディープニューラルネットワーク(DNN)は、学習データ前処理を導入することで、パフォーマンスを著しく向上させた。
本稿では,DNNが学習した構造的前提と局所的連続仮定の両方を活かした学習再サンプリング(Learning Resampling, LeRF)を提案する。
LeRFは空間的に異なる再サンプリング関数を入力画像ピクセルに割り当て、ニューラルネットワークを用いてこれらの再サンプリング関数の形状を予測する。
論文 参考訳(メタデータ) (2024-07-13T16:09:45Z) - One-Dimensional Deep Image Prior for Curve Fitting of S-Parameters from
Electromagnetic Solvers [57.441926088870325]
Deep Image Prior(ディープ・イメージ・プライオリ、ディープ・イメージ・プライオリ、DIP)は、ランダムなd畳み込みニューラルネットワークの重みを最適化し、ノイズや過度な測定値からの信号に適合させる技術である。
本稿では,Vector Fitting (VF) の実装に対して,ほぼすべてのテスト例において優れた性能を示す。
論文 参考訳(メタデータ) (2023-06-06T20:28:37Z) - NL-CS Net: Deep Learning with Non-Local Prior for Image Compressive
Sensing [7.600617428107161]
近年,画像の圧縮センシング(CS)にディープラーニングが応用されている。
本稿では,従来の最適化手法の解釈可能性と,NL-CS Netと呼ばれるネットワークベース手法の高速化を併用した,非局所的前処理を用いた新しいCS手法を提案する。
論文 参考訳(メタデータ) (2023-05-06T02:34:28Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - Incremental Spatial and Spectral Learning of Neural Operators for
Solving Large-Scale PDEs [86.35471039808023]
Incrmental Fourier Neural Operator (iFNO)を導入し、モデルが使用する周波数モードの数を徐々に増加させる。
iFNOは、各種データセット間の一般化性能を維持したり改善したりしながら、トレーニング時間を短縮する。
提案手法は,既存のフーリエニューラル演算子に比べて20%少ない周波数モードを用いて,10%低いテスト誤差を示すとともに,30%高速なトレーニングを実現する。
論文 参考訳(メタデータ) (2022-11-28T09:57:15Z) - Transform Once: Efficient Operator Learning in Frequency Domain [69.74509540521397]
本研究では、周波数領域の構造を利用して、空間や時間における長距離相関を効率的に学習するために設計されたディープニューラルネットワークについて検討する。
この研究は、単一変換による周波数領域学習のための青写真を導入している。
論文 参考訳(メタデータ) (2022-11-26T01:56:05Z) - Loop Unrolled Shallow Equilibrium Regularizer (LUSER) -- A
Memory-Efficient Inverse Problem Solver [26.87738024952936]
逆問題では、潜在的に破損し、しばしば不適切な測定結果から、いくつかの基本的な関心のシグナルを再構築することを目的としている。
浅い平衡正規化器(L)を用いたLUアルゴリズムを提案する。
これらの暗黙のモデルは、より深い畳み込みネットワークと同じくらい表現力があるが、トレーニング中にはるかにメモリ効率が良い。
論文 参考訳(メタデータ) (2022-10-10T19:50:37Z) - Obtaining Adjustable Regularization for Free via Iterate Averaging [43.75491612671571]
最適化のための正規化は、機械学習の過度な適合を避けるための重要なテクニックである。
我々は、任意の強凸かつ滑らかな対象関数上のSGDの繰り返しを正規化された関数に変換する平均化スキームを確立する。
提案手法は,高速化および事前条件最適化手法にも利用できる。
論文 参考訳(メタデータ) (2020-08-15T15:28:05Z) - ML-misfit: Learning a robust misfit function for full-waveform inversion
using machine learning [0.0]
機械学習に基づいて、フルウェーブフォームインバージョン(FWI)に対する不適合関数を学習する。
マッチングフィルタの不適合性の最適輸送にインスパイアされた我々は、不適合関数のためのニューラルネットワーク(NN)アーキテクチャを設計する。
有名なMarmousiモデルに適用することにより,学習したMLミスフィットの有効性とロバスト性を実証する。
論文 参考訳(メタデータ) (2020-02-08T13:27:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。