論文の概要: Inspired by machine learning optimization: can gradient-based optimizers solve cycle skipping in full waveform inversion given sufficient iterations?
- arxiv url: http://arxiv.org/abs/2509.14919v1
- Date: Thu, 18 Sep 2025 12:56:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 17:26:53.219671
- Title: Inspired by machine learning optimization: can gradient-based optimizers solve cycle skipping in full waveform inversion given sufficient iterations?
- Title(参考訳): 勾配に基づく最適化は、十分なイテレーションを与えられた完全な波形逆転のサイクルスキップを解決することができるか?
- Authors: Xinru Mu, Omar M. Saad, Shaowen Wang, Tariq Alkhalifah,
- Abstract要約: フルウェーブフォームインバージョン(FWI)は、観測データとシミュレーションデータの違いを最小限に抑えて、速度モデルを反復的に更新する。
初期速度モデルが不正確で低周波地震データがない場合、シミュレーションデータと観測データとのミスマッチは周期の半分を超える可能性がある。
本研究では、まずFWIが局所的な最小値に収束することを示したが、追加の繰り返しが十分であれば、インバージョンは徐々に大域的な最小値に近づくことができる。
- 参考スコア(独自算出の注目度): 4.900571591595405
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Full waveform inversion (FWI) iteratively updates the velocity model by minimizing the difference between observed and simulated data. Due to the high computational cost and memory requirements associated with global optimization algorithms, FWI is typically implemented using local optimization methods. However, when the initial velocity model is inaccurate and low-frequency seismic data (e.g., below 3 Hz) are absent, the mismatch between simulated and observed data may exceed half a cycle, a phenomenon known as cycle skipping. In such cases, local optimization algorithms (e.g., gradient-based local optimizers) tend to converge to local minima, leading to inaccurate inversion results. In machine learning, neural network training is also an optimization problem prone to local minima. It often employs gradient-based optimizers with a relatively large learning rate (beyond the theoretical limits of local optimization that are usually determined numerically by a line search), which allows the optimization to behave like a quasi-global optimizer. Consequently, after training for several thousand iterations, we can obtain a neural network model with strong generative capability. In this study, we also employ gradient-based optimizers with a relatively large learning rate for FWI. Results from both synthetic and field data experiments show that FWI may initially converge to a local minimum; however, with sufficient additional iterations, the inversion can gradually approach the global minimum, slowly from shallow subsurface to deep, ultimately yielding an accurate velocity model. Furthermore, numerical examples indicate that, given sufficient iterations, reasonable velocity inversion results can still be achieved even when low-frequency data below 5 Hz are missing.
- Abstract(参考訳): フルウェーブフォームインバージョン(FWI)は、観測データとシミュレーションデータの違いを最小限に抑えて、速度モデルを反復的に更新する。
グローバル最適化アルゴリズムに関連する高い計算コストとメモリ要求のため、FWIは通常、局所最適化手法を用いて実装される。
しかし、初期速度モデルが不正確で低周波の地震データ(例えば3Hz以下)が欠如している場合、シミュレーションデータと観測データのミスマッチはサイクルの半分を超え、サイクルスキップと呼ばれる現象である。
そのような場合、局所最適化アルゴリズム(例えば勾配に基づく局所最適化アルゴリズム)は局所ミニマに収束する傾向にあり、不正確な反転結果をもたらす。
機械学習では、ニューラルネットワークトレーニングは局所ミニマの最適化問題でもある。
勾配に基づくオプティマイザは比較的大きな学習率(通常は線探索によって数値的に決定される局所最適化の理論的限界)を持ち、準グロバルオプティマイザのように振る舞うことができる。
その結果、数千回の繰り返しのトレーニングを経て、強力な生成能力を持つニューラルネットワークモデルを得ることができる。
本研究では,FWIの学習速度が比較的高い勾配型オプティマイザも採用する。
合成データ実験とフィールドデータ実験の両方の結果、FWIは最初は局所的な最小値に収束する可能性があるが、十分な追加の繰り返しにより、インバージョンは徐々に大域的な最小値に近づき、浅い地下から深部まで徐々に変化し、最終的には正確な速度モデルが得られる。
さらに、数値的な例では、5Hz以下の低周波データが欠落している場合でも、十分な反復が与えられると、妥当な速度反転結果が得られることを示している。
関連論文リスト
- Physics-informed waveform inversion using pretrained wavefield neural operators [9.048550821334116]
フルウェーブフォームインバージョン(FWI)は高分解能地下モデルの再構築に不可欠である。
学習波動場ニューラル演算子を用いてFWIを加速する最近の試みは、効率と微分可能性の有望性を示している。
ニューラル演算子に基づくFWIの効率を維持しつつ、精度の反転を高める新しい物理インフォームドFWIフレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-10T19:57:18Z) - MesaNet: Sequence Modeling by Locally Optimal Test-Time Training [67.45211108321203]
我々は,最近提案されたMesa層の数値的に安定かつチャンクワイズ可能な並列化版を導入する。
テストタイムの最適トレーニングにより、従来のRNNよりも言語モデリングの難易度が低く、ダウンストリームベンチマークのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2025-06-05T16:50:23Z) - QuickSplat: Fast 3D Surface Reconstruction via Learned Gaussian Initialization [69.50126552763157]
表面再構成はコンピュータビジョンとグラフィックスの基本であり、3Dモデリング、混合現実、ロボット工学などの応用を可能にする。
レンダリングに基づく既存のアプローチは有望な結果を得るが、シーンごとに最適化されるため、テクスチャレスな領域をモデル化するのに苦労する可能性がある。
大規模屋内シーンの2次元ガウススプラッティング最適化のための高密度初期化を生成するために,データ駆動の先行処理を学習するQuickSplatを紹介する。
論文 参考訳(メタデータ) (2025-05-08T18:43:26Z) - Least-Squares-Embedded Optimization for Accelerated Convergence of PINNs in Acoustic Wavefield Simulations [2.8948274245812327]
PINNは偏微分方程式の解法において有望であることを示した。
ヘルムホルツ方程式に基づく散乱音場シミュレーションでは,ハイブリッド最適化の枠組みを導出する。
このフレームワークは、最小二乗(LS)ソルバをGD損失関数に直接埋め込むことで、トレーニング収束を加速する。
論文 参考訳(メタデータ) (2025-04-23T09:32:14Z) - Convex Relaxations of ReLU Neural Networks Approximate Global Optima in Polynomial Time [45.72323731094864]
本稿では,2層ReLULUネットワーク間における重み減衰と凸緩和の最適性ギャップについて検討する。
私たちの研究は、なぜローカルメソッドがうまく機能するのかを理解することに新たな光を当てています。
論文 参考訳(メタデータ) (2024-02-06T01:29:35Z) - Neural Gradient Learning and Optimization for Oriented Point Normal
Estimation [53.611206368815125]
本研究では,3次元点雲から勾配ベクトルを一貫した向きで学習し,正規推定を行うためのディープラーニング手法を提案する。
局所平面幾何に基づいて角距離場を学習し、粗勾配ベクトルを洗練する。
本手法は,局所特徴記述の精度と能力の一般化を図りながら,グローバル勾配近似を効率的に行う。
論文 参考訳(メタデータ) (2023-09-17T08:35:11Z) - Scalable Optimal Transport in High Dimensions for Graph Distances,
Embedding Alignment, and More [7.484063729015126]
最適輸送のためのコスト行列の2つの効率的な対数線形時間近似を提案する。
これらの近似は、複雑な高次元空間に対してもよく機能するエントロピー規則化OTに対する一般的な対数線形時間アルゴリズムを可能にする。
グラフ距離回帰のために,グラフニューラルネットワーク(GNN)と拡張シンクホーンを組み合わせたグラフトランスポートネットワーク(GTN)を提案する。
論文 参考訳(メタデータ) (2021-07-14T17:40:08Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。