論文の概要: Improved impedance inversion by deep learning and iterated graph Laplacian
- arxiv url: http://arxiv.org/abs/2404.16324v1
- Date: Thu, 25 Apr 2024 04:21:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-26 14:48:28.164409
- Title: Improved impedance inversion by deep learning and iterated graph Laplacian
- Title(参考訳): 深層学習と反復グラフラプラシアンによるインピーダンスインバージョンの改善
- Authors: Davide Bianchi, Florian Bossmann, Wenlong Wang, Mingming Liu,
- Abstract要約: 深層学習と反復グラフラプラシアンを組み合わせたハイブリッド手法を提案する。
地震探査における日常的な手法である音響インピーダンスインバージョンへの適用について述べる。
- 参考スコア(独自算出の注目度): 1.1786170679552188
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning techniques have shown significant potential in many applications through recent years. The achieved results often outperform traditional techniques. However, the quality of a neural network highly depends on the used training data. Noisy, insufficient, or biased training data leads to suboptimal results. We present a hybrid method that combines deep learning with iterated graph Laplacian and show its application in acoustic impedance inversion which is a routine procedure in seismic explorations. A neural network is used to obtain a first approximation of the underlying acoustic impedance and construct a graph Laplacian matrix from this approximation. Afterwards, we use a Tikhonov-like variational method to solve the impedance inversion problem where the regularizer is based on the constructed graph Laplacian. The obtained solution can be shown to be more accurate and stable with respect to noise than the initial guess obtained by the neural network. This process can be iterated several times, each time constructing a new graph Laplacian matrix from the most recent reconstruction. The method converges after only a few iterations returning a much more accurate reconstruction. We demonstrate the potential of our method on two different datasets and under various levels of noise. We use two different neural networks that have been introduced in previous works. The experiments show that our approach improves the reconstruction quality in the presence of noise.
- Abstract(参考訳): ディープラーニング技術は近年,多くのアプリケーションにおいて大きな可能性を秘めている。
達成された結果は、しばしば伝統的な技術よりも優れていた。
しかし、ニューラルネットワークの品質は、使用するトレーニングデータに大きく依存する。
ノイズ、不十分、偏りのあるトレーニングデータは、最適以下の結果をもたらす。
本稿では, 深層学習と反復グラフラプラシアンを組み合わせたハイブリッド手法を提案する。
ニューラルネットワークを用いて、基礎となる音響インピーダンスの最初の近似を取得し、この近似からグラフラプラシア行列を構築する。
その後、Tikhonov のような変分法を用いて、正規化器が構築されたグラフ Laplacian に基づいているインピーダンス反転問題を解く。
得られた解は、ニューラルネットワークが得た推定値よりもノイズに対してより正確で安定であることを示すことができる。
この過程は、直近の再構成から新しいグラフラプラシア行列を構成する度に、数回反復することができる。
この方法は、ほんの数イテレーションでより正確な再構築を返すと収束する。
2つの異なるデータセットと様々なノイズの下で,本手法の有効性を実証する。
これまでの研究で導入された2つの異なるニューラルネットワークを使用します。
実験により,本手法は騒音の存在下での再現性の向上を図っている。
関連論文リスト
- Scalable Bayesian Inference in the Era of Deep Learning: From Gaussian Processes to Deep Neural Networks [0.5827521884806072]
大規模なデータセットでトレーニングされた大規模なニューラルネットワークは、マシンラーニングの主要なパラダイムになっています。
この論文は、モデル不確実性を持つニューラルネットワークを装備するためのスケーラブルな手法を開発する。
論文 参考訳(メタデータ) (2024-04-29T23:38:58Z) - Adaptive Sampling for Deep Learning via Efficient Nonparametric Proxies [35.29595714883275]
我々は,Nadaraya-Watson推定器に対する効率的なスケッチベース近似を開発した。
サンプリングアルゴリズムは,4つのデータセットに対して,壁面時間と精度でベースラインを上回っている。
論文 参考訳(メタデータ) (2023-11-22T18:40:18Z) - Solving Inverse Problems with Score-Based Generative Priors learned from
Noisy Data [1.7969777786551424]
SURE-Scoreは、加法ガウス雑音で劣化したトレーニングサンプルを用いてスコアベースの生成モデルを学習するためのアプローチである。
2つの実践的応用において,SURE-Scoreの事前学習と逆問題に対する後続サンプリングの適用による一般化を実証する。
論文 参考訳(メタデータ) (2023-05-02T02:51:01Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - A Plug-and-Play Approach to Multiparametric Quantitative MRI: Image
Reconstruction using Pre-Trained Deep Denoisers [4.910318162000904]
本稿では,先進的獲得プロセスに適応したMDFに対する反復的深層学習再構築手法を提案する。
CNNデノイザモデルは、異なるサブサンプリングパターンを持つ2つの模擬取得プロセスでテストされる。
以上の結果から, 買収方式と組織量的バイオプロパティの正確なマッピングに対する一貫した除去性能が示された。
論文 参考訳(メタデータ) (2022-02-10T09:35:25Z) - Optimization-Based Separations for Neural Networks [57.875347246373956]
本研究では,2層のシグモダルアクティベーションを持つディープ2ニューラルネットワークを用いて,ボールインジケータ関数を効率よく学習できることを示す。
これは最適化に基づく最初の分離結果であり、より強力なアーキテクチャの近似の利点は、実際に確実に現れる。
論文 参考訳(メタデータ) (2021-12-04T18:07:47Z) - Graph Signal Restoration Using Nested Deep Algorithm Unrolling [85.53158261016331]
グラフ信号処理は、センサー、社会交通脳ネットワーク、ポイントクラウド処理、グラフネットワークなど、多くのアプリケーションにおいてユビキタスなタスクである。
凸非依存型深部ADMM(ADMM)に基づく2つの復元手法を提案する。
提案手法のパラメータはエンドツーエンドでトレーニング可能である。
論文 参考訳(メタデータ) (2021-06-30T08:57:01Z) - Learning Frequency Domain Approximation for Binary Neural Networks [68.79904499480025]
フーリエ周波数領域における符号関数の勾配を正弦関数の組み合わせを用いて推定し,BNNの訓練を行う。
いくつかのベンチマークデータセットとニューラルネットワークの実験により、この手法で学習したバイナリネットワークが最先端の精度を達成することが示されている。
論文 参考訳(メタデータ) (2021-03-01T08:25:26Z) - Estimating Vector Fields from Noisy Time Series [6.939768185086753]
一次元神経形状関数のテンソル積からなるニューラルネットワークアーキテクチャについて述べる。
ニューラルネットワークの近似特性はニューラル形状関数アーキテクチャで維持されている。
また、我々のニューラル形状関数法と既存の微分方程式学習法を交互に最小化と複数軌跡に組み合わせて検討した。
論文 参考訳(メタデータ) (2020-12-06T07:27:56Z) - Solving Sparse Linear Inverse Problems in Communication Systems: A Deep
Learning Approach With Adaptive Depth [51.40441097625201]
疎信号回復問題に対するエンドツーエンドの訓練可能なディープラーニングアーキテクチャを提案する。
提案手法は,出力するレイヤ数を学習し,各タスクのネットワーク深さを推論フェーズで動的に調整する。
論文 参考訳(メタデータ) (2020-10-29T06:32:53Z) - Applications of Koopman Mode Analysis to Neural Networks [52.77024349608834]
我々は,ニューラルネットワークのトレーニング過程を,高次元の重み空間に作用する力学系と考える。
アーキテクチャに必要なレイヤ数を決定するために、Koopmanスペクトルをどのように利用できるかを示す。
また、Koopmanモードを使えば、ネットワークを選択的にプーンしてトレーニング手順を高速化できることを示す。
論文 参考訳(メタデータ) (2020-06-21T11:00:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。