論文の概要: Improved impedance inversion by the iterated graph Laplacian
- arxiv url: http://arxiv.org/abs/2404.16324v2
- Date: Tue, 15 Apr 2025 17:53:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-18 17:56:37.024277
- Title: Improved impedance inversion by the iterated graph Laplacian
- Title(参考訳): 反復グラフラプラシアンによるインピーダンスインバージョンの改善
- Authors: Davide Bianchi, Florian Bossmann, Wenlong Wang, Mingming Liu,
- Abstract要約: 本稿では,古典的あるいは深層学習に基づくアプローチと反復グラフラプラシアン正規化を統合したデータ適応型逆変換手法を提案する。
本手法は,従来のインバージョン手法とニューラルネットワークに基づく手法のいずれかを用いて導出したインピーダンス推定から開始する。
- 参考スコア(独自算出の注目度): 1.1786170679552188
- License:
- Abstract: We introduce a data-adaptive inversion method that integrates classical or deep learning-based approaches with iterative graph Laplacian regularization, specifically targeting acoustic impedance inversion - a critical task in seismic exploration. Our method initiates from an impedance estimate derived using either traditional inversion techniques or neural network-based methods. This initial estimate guides the construction of a graph Laplacian operator, effectively capturing structural characteristics of the impedance profile. Utilizing a Tikhonov-inspired variational framework with this graph-informed prior, our approach iteratively updates and refines the impedance estimate while continuously recalibrating the graph Laplacian. This iterative refinement shows rapid convergence, increased accuracy, and enhanced robustness to noise compared to initial reconstructions alone. Extensive validation performed on synthetic and real seismic datasets across varying noise levels confirms the effectiveness of our method. Performance evaluations include four initial inversion methods: two classical techniques and two neural networks - previously established in the literature.
- Abstract(参考訳): 本稿では,古典的あるいは深層学習に基づくアプローチと反復グラフのラプラシアン正規化を統合したデータ適応型逆解析手法を提案する。
本手法は,従来のインバージョン手法とニューラルネットワークに基づく手法のいずれかを用いて導出したインピーダンス推定から開始する。
この最初の推定は、グラフラプラシア作用素の構築を導くもので、インピーダンスプロファイルの構造特性を効果的に捉えている。
このグラフにインフォームドされた前もって、Tikhonovにインスパイアされた変分フレームワークを利用することで、グラフラプラシアンを継続的に再計算しながら、インピーダンス推定を反復的に更新し、洗練する。
この反復的な改善は、初期再構成単独と比較して、急速に収束し、精度が向上し、ノイズに対する頑丈さが向上したことを示している。
本手法の有効性を確認するため, 各種騒音レベルにおける合成および実地震データに対する広範囲な検証を行った。
パフォーマンス評価には、2つの古典的テクニックと2つのニューラルネットワークの4つの初期反転方法が含まれている。
関連論文リスト
- Scalable Bayesian Inference in the Era of Deep Learning: From Gaussian Processes to Deep Neural Networks [0.5827521884806072]
大規模なデータセットでトレーニングされた大規模なニューラルネットワークは、マシンラーニングの主要なパラダイムになっています。
この論文は、モデル不確実性を持つニューラルネットワークを装備するためのスケーラブルな手法を開発する。
論文 参考訳(メタデータ) (2024-04-29T23:38:58Z) - Adaptive Sampling for Deep Learning via Efficient Nonparametric Proxies [35.29595714883275]
我々は,Nadaraya-Watson推定器に対する効率的なスケッチベース近似を開発した。
サンプリングアルゴリズムは,4つのデータセットに対して,壁面時間と精度でベースラインを上回っている。
論文 参考訳(メタデータ) (2023-11-22T18:40:18Z) - Solving Inverse Problems with Score-Based Generative Priors learned from
Noisy Data [1.7969777786551424]
SURE-Scoreは、加法ガウス雑音で劣化したトレーニングサンプルを用いてスコアベースの生成モデルを学習するためのアプローチである。
2つの実践的応用において,SURE-Scoreの事前学習と逆問題に対する後続サンプリングの適用による一般化を実証する。
論文 参考訳(メタデータ) (2023-05-02T02:51:01Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - A Plug-and-Play Approach to Multiparametric Quantitative MRI: Image
Reconstruction using Pre-Trained Deep Denoisers [4.910318162000904]
本稿では,先進的獲得プロセスに適応したMDFに対する反復的深層学習再構築手法を提案する。
CNNデノイザモデルは、異なるサブサンプリングパターンを持つ2つの模擬取得プロセスでテストされる。
以上の結果から, 買収方式と組織量的バイオプロパティの正確なマッピングに対する一貫した除去性能が示された。
論文 参考訳(メタデータ) (2022-02-10T09:35:25Z) - Optimization-Based Separations for Neural Networks [57.875347246373956]
本研究では,2層のシグモダルアクティベーションを持つディープ2ニューラルネットワークを用いて,ボールインジケータ関数を効率よく学習できることを示す。
これは最適化に基づく最初の分離結果であり、より強力なアーキテクチャの近似の利点は、実際に確実に現れる。
論文 参考訳(メタデータ) (2021-12-04T18:07:47Z) - Graph Signal Restoration Using Nested Deep Algorithm Unrolling [85.53158261016331]
グラフ信号処理は、センサー、社会交通脳ネットワーク、ポイントクラウド処理、グラフネットワークなど、多くのアプリケーションにおいてユビキタスなタスクである。
凸非依存型深部ADMM(ADMM)に基づく2つの復元手法を提案する。
提案手法のパラメータはエンドツーエンドでトレーニング可能である。
論文 参考訳(メタデータ) (2021-06-30T08:57:01Z) - Learning Frequency Domain Approximation for Binary Neural Networks [68.79904499480025]
フーリエ周波数領域における符号関数の勾配を正弦関数の組み合わせを用いて推定し,BNNの訓練を行う。
いくつかのベンチマークデータセットとニューラルネットワークの実験により、この手法で学習したバイナリネットワークが最先端の精度を達成することが示されている。
論文 参考訳(メタデータ) (2021-03-01T08:25:26Z) - Estimating Vector Fields from Noisy Time Series [6.939768185086753]
一次元神経形状関数のテンソル積からなるニューラルネットワークアーキテクチャについて述べる。
ニューラルネットワークの近似特性はニューラル形状関数アーキテクチャで維持されている。
また、我々のニューラル形状関数法と既存の微分方程式学習法を交互に最小化と複数軌跡に組み合わせて検討した。
論文 参考訳(メタデータ) (2020-12-06T07:27:56Z) - Solving Sparse Linear Inverse Problems in Communication Systems: A Deep
Learning Approach With Adaptive Depth [51.40441097625201]
疎信号回復問題に対するエンドツーエンドの訓練可能なディープラーニングアーキテクチャを提案する。
提案手法は,出力するレイヤ数を学習し,各タスクのネットワーク深さを推論フェーズで動的に調整する。
論文 参考訳(メタデータ) (2020-10-29T06:32:53Z) - Applications of Koopman Mode Analysis to Neural Networks [52.77024349608834]
我々は,ニューラルネットワークのトレーニング過程を,高次元の重み空間に作用する力学系と考える。
アーキテクチャに必要なレイヤ数を決定するために、Koopmanスペクトルをどのように利用できるかを示す。
また、Koopmanモードを使えば、ネットワークを選択的にプーンしてトレーニング手順を高速化できることを示す。
論文 参考訳(メタデータ) (2020-06-21T11:00:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。