論文の概要: ML-misfit: Learning a robust misfit function for full-waveform inversion
using machine learning
- arxiv url: http://arxiv.org/abs/2002.03163v2
- Date: Wed, 18 Mar 2020 10:53:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 23:08:47.270803
- Title: ML-misfit: Learning a robust misfit function for full-waveform inversion
using machine learning
- Title(参考訳): ml-misfit:機械学習を用いたフルウェーブフォームインバージョンのためのロバストミスフィット関数の学習
- Authors: Bingbing Sun and Tariq Alkhalifah
- Abstract要約: 機械学習に基づいて、フルウェーブフォームインバージョン(FWI)に対する不適合関数を学習する。
マッチングフィルタの不適合性の最適輸送にインスパイアされた我々は、不適合関数のためのニューラルネットワーク(NN)アーキテクチャを設計する。
有名なMarmousiモデルに適用することにより,学習したMLミスフィットの有効性とロバスト性を実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most of the available advanced misfit functions for full waveform inversion
(FWI) are hand-crafted, and the performance of those misfit functions is
data-dependent. Thus, we propose to learn a misfit function for FWI, entitled
ML-misfit, based on machine learning. Inspired by the optimal transport of the
matching filter misfit, we design a neural network (NN) architecture for the
misfit function in a form similar to comparing the mean and variance for two
distributions. To guarantee the resulting learned misfit is a metric, we
accommodate the symmetry of the misfit with respect to its input and a Hinge
loss regularization term in a meta-loss function to satisfy the "triangle
inequality" rule. In the framework of meta-learning, we train the network by
running FWI to invert for randomly generated velocity models and update the
parameters of the NN by minimizing the meta-loss, which is defined as
accumulated difference between the true and inverted models. We first
illustrate the basic principle of the ML-misfit for learning a convex misfit
function for travel-time shifted signals. Further, we train the NN on 2D
horizontally layered models, and we demonstrate the effectiveness and
robustness of the learned ML-misfit by applying it to the well-known Marmousi
model.
- Abstract(参考訳): フル波形インバージョン(fwi)用の利用可能なadvanced misfit関数のほとんどは手作りであり、これらのmisfit関数のパフォーマンスはデータ依存である。
そこで本研究では,fwi の ml-misfit というミスフィット関数を機械学習に基づいて学習することを提案する。
マッチングフィルタの最適輸送にインスパイアされ、2つの分布の平均と分散を比較するのに類似した形で、不適合関数のためのニューラルネットワーク(NN)アーキテクチャを設計する。
その結果得られたミスフィットがメトリックであることを保証するために、入力に対するミスフィットの対称性と「三角不等式」規則を満たすメタ損失関数におけるヒンジ損失正規化項を満足する。
メタラーニングの枠組みでは、FWIを実行してネットワークをトレーニングし、ランダムに生成された速度モデルを逆転させ、真のモデルと逆モデルの累積差として定義されるメタロスを最小化してNNのパラメータを更新する。
まず,移動時シフト信号に対する凸不適合関数を学習するためのMLミスフィットの基本原理を説明する。
さらに,2次元水平層モデル上でNNを訓練し,よく知られたMarmousiモデルに適用することにより,学習したMLミスフィットの有効性と堅牢性を示す。
関連論文リスト
- A Stochastic Approach to Bi-Level Optimization for Hyperparameter Optimization and Meta Learning [74.80956524812714]
我々は,現代のディープラーニングにおいて広く普及している一般的なメタ学習問題に対処する。
これらの問題は、しばしばBi-Level Optimizations (BLO)として定式化される。
我々は,与えられたBLO問題を,内部損失関数が滑らかな分布となり,外損失が内部分布に対する期待損失となるようなii最適化に変換することにより,新たな視点を導入する。
論文 参考訳(メタデータ) (2024-10-14T12:10:06Z) - Bring Metric Functions into Diffusion Models [145.71911023514252]
DDPM(Denoising Diffusion Probabilistic Model)を改善するカスケード拡散モデル(Cas-DM)を導入する。
提案した拡散モデルバックボーンはLPIPS損失の有効利用を可能にし,最先端画像品質(FID, sFID, IS)を実現する。
実験結果から,提案した拡散モデルバックボーンはLPIPS損失の有効利用を可能にし,最新画像品質(FID, sFID, IS)につながることが示された。
論文 参考訳(メタデータ) (2024-01-04T18:55:01Z) - Learning Layer-wise Equivariances Automatically using Gradients [66.81218780702125]
畳み込みは等価対称性をニューラルネットワークにエンコードし、より優れた一般化性能をもたらす。
対称性は、ネットワークが表現できる機能、事前に指定する必要、適応できない機能に対して、固定されたハード制約を提供する。
私たちのゴールは、勾配を使ってデータから自動的に学習できるフレキシブル対称性の制約を可能にすることです。
論文 参考訳(メタデータ) (2023-10-09T20:22:43Z) - Theoretical Characterization of the Generalization Performance of
Overfitted Meta-Learning [70.52689048213398]
本稿では,ガウス的特徴を持つ線形回帰モデルの下で,過剰適合型メタラーニングの性能について検討する。
シングルタスク線形回帰には存在しない新しい興味深い性質が見つかる。
本分析は,各訓練課題における基礎的真理のノイズや多様性・変動が大きい場合には,良心過剰がより重要かつ容易に観察できることを示唆する。
論文 参考訳(メタデータ) (2023-04-09T20:36:13Z) - An Adaptive Plug-and-Play Network for Few-Shot Learning [12.023266104119289]
少数のサンプルから学んだ後、新しいサンプルを分類するモデルが必要である。
ディープネットワークと複雑なメトリクスはオーバーフィッティングを引き起こす傾向があり、パフォーマンスをさらに改善することは困難である。
プラグアンドプレイ型モデル適応型リサイザ (MAR) とアダプティブ類似度測定器 (ASM) をその他の損失なく提案する。
論文 参考訳(メタデータ) (2023-02-18T13:25:04Z) - Evolving parametrized Loss for Image Classification Learning on Small
Datasets [1.4685355149711303]
本稿ではメタロスネットワーク(MLN)と呼ばれるパラメタ化損失関数の進化のためのメタラーニング手法を提案する。
本手法では,MLNを識別対象関数として分類学習の枠組みに組み込む。
実験の結果,MLNは古典的クロスエントロピー誤差や平均二乗誤差と比較して,一般化を効果的に改善した。
論文 参考訳(メタデータ) (2021-03-15T10:00:18Z) - B-SMALL: A Bayesian Neural Network approach to Sparse Model-Agnostic
Meta-Learning [2.9189409618561966]
本稿では,b-smallアルゴリズムと呼ぶベイズ型ニューラルネットワークに基づくmamlアルゴリズムを提案する。
分類タスクと回帰タスクを用いたB-MAMLのパフォーマンスを実証し、MDLを用いたスパーシファイングBNNのトレーニングがモデルのパラメータフットプリントを実際に改善することを強調した。
論文 参考訳(メタデータ) (2021-01-01T09:19:48Z) - Shaping Deep Feature Space towards Gaussian Mixture for Visual
Classification [74.48695037007306]
視覚分類のためのディープニューラルネットワークのためのガウス混合損失関数(GM)を提案する。
分類マージンと可能性正規化により、GM損失は高い分類性能と特徴分布の正確なモデリングの両方を促進する。
提案したモデルは、追加のトレーニング可能なパラメータを使わずに、簡単かつ効率的に実装できる。
論文 参考訳(メタデータ) (2020-11-18T03:32:27Z) - Optimization-driven Machine Learning for Intelligent Reflecting Surfaces
Assisted Wireless Networks [82.33619654835348]
インテリジェントサーフェス(IRS)は、個々の散乱素子の位相シフトを制御して無線チャネルを再形成するために用いられる。
散乱素子の規模が大きいため、受動ビームフォーミングは一般に高い計算複雑性によって挑戦される。
本稿では、IRS支援無線ネットワークの性能向上のための機械学習(ML)アプローチに焦点を当てる。
論文 参考訳(メタデータ) (2020-08-29T08:39:43Z) - A data-driven choice of misfit function for FWI using reinforcement
learning [0.0]
我々は、DQN(Deep-Q Network)を用いて最適なポリシーを学習し、異なる不適合関数を切り替える適切なタイミングを決定する。
具体的には、従来のL2-ノルムミスフィット関数やOTMF(Optimal-transport Match-filter)のミスフィットをいつ使うべきかを予測するために状態-アクション値関数(Q)を訓練する。
論文 参考訳(メタデータ) (2020-02-08T12:31:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。