論文の概要: Physics-Driven Self-Supervised Deep Learning for Free-Surface Multiple Elimination
- arxiv url: http://arxiv.org/abs/2502.05189v1
- Date: Sun, 26 Jan 2025 15:37:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-16 05:04:35.657872
- Title: Physics-Driven Self-Supervised Deep Learning for Free-Surface Multiple Elimination
- Title(参考訳): 自由表面多重除去のための物理駆動型自己教師付き深層学習
- Authors: Jing Sun, Tiexing Wang, Eric Verschuur, Ivan Vasconcelos,
- Abstract要約: 物理物理学において、ディープラーニング(Deep Learning, DL)法は、一般に大量の高品質ラベル付きデータからの教師付き学習に基づいている。
本稿では,損失計算に基礎となる物理を組み込んで,自由表面多重自由波動場をフルウェーブフィールドから効果的にパラメータ化する方法を提案する。
これにより、根拠となる真理データを示すことなく、高品質な推定値が得られる。
- 参考スコア(独自算出の注目度): 3.3244277562036095
- License:
- Abstract: In recent years, deep learning (DL) has emerged as a promising alternative approach for various seismic processing tasks, including primary estimation (or multiple elimination), a crucial step for accurate subsurface imaging. In geophysics, DL methods are commonly based on supervised learning from large amounts of high-quality labelled data. Instead of relying on traditional supervised learning, in the context of free-surface multiple elimination, we propose a method in which the DL model learns to effectively parameterize the free-surface multiple-free wavefield from the full wavefield by incorporating the underlying physics into the loss computation. This, in turn, yields high-quality estimates without ever being shown any ground truth data. Currently, the network reparameterization is performed independently for each dataset. We demonstrate its effectiveness through tests on both synthetic and field data. We employ industry-standard Surface-Related Multiple Elimination (SRME) using, respectively, global least-squares adaptive subtraction and local least-squares adaptive subtraction as benchmarks. The comparison shows that the proposed method outperforms the benchmarks in estimation accuracy, achieving the most complete primary estimation and the least multiple energy leakage, but at the cost of a higher computational burden.
- Abstract(参考訳): 近年, 深層学習 (DL) は, 高精度な地下イメージングのための重要なステップである一次推定 (あるいは多重除去) など, 様々な地震処理タスクにおいて, 有望な代替手段として出現している。
物理物理学では、DL法は一般に大量の高品質なラベル付きデータから教師付き学習に基づいている。
従来の教師付き学習に代えて、自由表面多重除去の文脈において、DLモデルは損失計算に基礎となる物理を組み込むことで、フルウェーブフィールドから自由表面多重自由波場を効果的にパラメータ化する方法を提案する。
これにより、根拠となる真理データを示すことなく、高品質な推定値が得られる。
現在、ネットワーク再パラメータ化はデータセットごとに独立して実行される。
本研究は,合成データとフィールドデータの両方を用いて,その有効性を実証する。
業界標準の面関連多重除去(SRME)をそれぞれ,グローバル最小二乗適応減算と局所最小二乗適応減算をベンチマークとして採用する。
比較の結果,提案手法は推定精度でベンチマークを上回り,最も完全な一次推定と最小の複数のエネルギーリークを実現するが,計算負担の増大は伴わないことがわかった。
関連論文リスト
- SeWA: Selective Weight Average via Probabilistic Masking [51.015724517293236]
より良く、より高速な収束を達成するためには、ほんの数ポイントしか必要としないことを示す。
離散選択問題を連続的な部分集合最適化フレームワークに変換する。
両凸画像チェックポイントの値よりもシャープなSeWAの安定性境界を導出する。
論文 参考訳(メタデータ) (2025-02-14T12:35:21Z) - Physically Guided Deep Unsupervised Inversion for 1D Magnetotelluric Models [16.91835461818938]
本稿では,物理で導かれる新しい深部非教師付き逆変換アルゴリズムを提案し,MTモデルについて検討する。
本手法では,観測データと各モデルのデータセットをトレーニング中にラベルとして使用する代わりに,コスト関数の最小化を物理的に導く,微分可能なモデリング演算子を用いる。
論文 参考訳(メタデータ) (2024-10-20T04:17:59Z) - Reward-Augmented Data Enhances Direct Preference Alignment of LLMs [63.32585910975191]
報奨条件付き大言語モデル(LLM)を導入し、データセット内の応答品質のスペクトル全体から学習する。
そこで本稿では,品質スコアに優先ペアを条件付け,報酬を加算したデータセットを構築する,効果的なデータレバーベリング手法を提案する。
論文 参考訳(メタデータ) (2024-10-10T16:01:51Z) - FLOPS: Forward Learning with OPtimal Sampling [1.694989793927645]
勾配に基づく計算手法は、最近、クエリとも呼ばれる前方通過のみによる学習に焦点が当てられている。
従来の前方学習はモンテカルロサンプリングによる正確な勾配推定のために各データポイントで膨大なクエリを消費する。
本稿では,評価精度と計算効率のバランスを良くするために,訓練中の各データに対して最適なクエリ数を割り当てることを提案する。
論文 参考訳(メタデータ) (2024-10-08T12:16:12Z) - Understanding Fine-tuning in Approximate Unlearning: A Theoretical Perspective [39.958103832214135]
ファインチューニング(FT)手法は、未学習を近似するための基本的なアプローチの1つとなっている。
本稿では,線形回帰フレームワーク内での機械学習のためのFT法に関する最初の理論的解析を行う。
本稿では,残りのデータセットに基づいて重量分布マップを構築するRBM(Retention-Based Masking)戦略を提案する。
論文 参考訳(メタデータ) (2024-10-04T18:01:52Z) - Minimally Supervised Learning using Topological Projections in
Self-Organizing Maps [55.31182147885694]
自己組織化マップ(SOM)におけるトポロジカルプロジェクションに基づく半教師付き学習手法を提案する。
提案手法は,まずラベル付きデータ上でSOMを訓練し,最小限のラベル付きデータポイントをキーベストマッチングユニット(BMU)に割り当てる。
提案した最小教師付きモデルが従来の回帰手法を大幅に上回ることを示す。
論文 参考訳(メタデータ) (2024-01-12T22:51:48Z) - Optimal Sample Selection Through Uncertainty Estimation and Its
Application in Deep Learning [22.410220040736235]
コアセット選択とアクティブラーニングの両方に対処するための理論的に最適な解を提案する。
提案手法であるCOPSは,サブサンプルデータに基づいてトレーニングされたモデルの損失を最小限に抑えるために設計されている。
論文 参考訳(メタデータ) (2023-09-05T14:06:33Z) - Minimizing the Accumulated Trajectory Error to Improve Dataset
Distillation [151.70234052015948]
本稿では,フラットな軌道を求める最適化アルゴリズムを提案する。
合成データに基づいてトレーニングされた重みは、平坦な軌道への正規化を伴う累積誤差摂動に対して頑健であることを示す。
本手法はFTD (Flat Trajectory Distillation) と呼ばれ, 勾配整合法の性能を最大4.7%向上させる。
論文 参考訳(メタデータ) (2022-11-20T15:49:11Z) - Attentional-Biased Stochastic Gradient Descent [74.49926199036481]
深層学習におけるデータ不均衡やラベルノイズ問題に対処するための証明可能な手法(ABSGD)を提案する。
本手法は運動量SGDの簡易な修正であり,各試料に個別の重み付けを行う。
ABSGDは追加コストなしで他の堅牢な損失と組み合わせられるほど柔軟である。
論文 参考訳(メタデータ) (2020-12-13T03:41:52Z) - AutoSimulate: (Quickly) Learning Synthetic Data Generation [70.82315853981838]
目的の新たな微分可能近似に基づく最適な合成データ生成法を提案する。
提案手法は,学習データ生成の高速化(最大50Times$)と,実世界のテストデータセットの精度向上(+8.7%$)を実現している。
論文 参考訳(メタデータ) (2020-08-16T11:36:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。