論文の概要: Deep learning-based shot-domain seismic deblending
- arxiv url: http://arxiv.org/abs/2409.08602v1
- Date: Fri, 13 Sep 2024 07:32:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-16 17:28:47.613642
- Title: Deep learning-based shot-domain seismic deblending
- Title(参考訳): 深層学習に基づくショットドメイン地震探査
- Authors: Jing Sun, Song Hou, Vetle Vinje, Gordon Poole, Leiv-J Gelius,
- Abstract要約: 我々は,各帆行の最後に獲得した未完成のショットコレクションを利用する。
これらのデータを手動でブレンドすることで、地上の真実をうまく制御したトレーニングデータが得られる。
隣接するブレンドショット集合を含むマルチチャネル入力を用いてディープニューラルネットワークを訓練する。
- 参考スコア(独自算出の注目度): 1.6411821807321063
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To streamline fast-track processing of large data volumes, we have developed a deep learning approach to deblend seismic data in the shot domain based on a practical strategy for generating high-quality training data along with a list of data conditioning techniques to improve performance of the data-driven model. We make use of unblended shot gathers acquired at the end of each sail line, to which the access requires no additional time or labor costs beyond the blended acquisition. By manually blending these data we obtain training data with good control of the ground truth and fully adapted to the given survey. Furthermore, we train a deep neural network using multi-channel inputs that include adjacent blended shot gathers as additional channels. The prediction of the blending noise is added in as a related and auxiliary task with the main task of the network being the prediction of the primary-source events. Blending noise in the ground truth is scaled down during the training and validation process due to its excessively strong amplitudes. As part of the process, the to-be-deblended shot gathers are aligned by the blending noise. Implementation on field blended-by-acquisition data demonstrates that introducing the suggested data conditioning steps can considerably reduce the leakage of primary-source events in the deep part of the blended section. The complete proposed approach performs almost as well as a conventional algorithm in the shallow section and shows great advantage in efficiency. It performs slightly worse for larger traveltimes, but still removes the blending noise efficiently.
- Abstract(参考訳): 大規模データボリュームの高速トラック処理を効率化するため,我々は,高品質なトレーニングデータを生成するための実践的戦略と,データ駆動モデルの性能向上のためのデータ条件付け手法の一覧に基づいて,ショット領域の地震データを分解する深層学習手法を開発した。
各帆行の終端で獲得した未完成のショット収集を利用して、ブレンドされた取得以外の追加の時間や労働コストを必要としないようにします。
これらのデータを手動でブレンドすることで、地上の真実を十分に制御し、与えられた調査に完全に適応したトレーニングデータが得られる。
さらに、隣接するブレンドショットを付加チャネルとして含むマルチチャネル入力を用いて、ディープニューラルネットワークを訓練する。
ブレンディングノイズの予測は、一次ソースイベントの予測であるネットワークのメインタスクと関連する、補助的なタスクとして追加される。
過度に強い振幅のため、トレーニングと検証の過程で、地中真理におけるブラディングノイズはスケールダウンされる。
この工程の一環として、折り畳み式ショット集束をブレンドノイズで整列させる。
フィールドブレンド・バイ・アセプションデータの実装は,提案したデータコンディショニング手順を導入することで,ブレンド部の深部における一次ソースイベントの漏洩を著しく低減できることを示す。
提案手法は浅部部における従来のアルゴリズムとほぼ同等に動作し,効率性に大きな利点を示す。
より大きな走行時間では若干悪化するが、それでもブレンドノイズを効率よく除去する。
関連論文リスト
- A convolutional neural network approach to deblending seismic data [1.5488464287814563]
本稿では,高速かつ効率的な地震探査のためのデータ駆動深層学習手法を提案する。
地震データの特徴に応じて畳み込みニューラルネットワーク(CNN)を設計する。
ネットワークのトレーニングと検証を行った後、ほぼリアルタイムで地震波のたわみを行うことができる。
論文 参考訳(メタデータ) (2024-09-12T10:54:35Z) - Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Stochastic Amortization: A Unified Approach to Accelerate Feature and Data Attribution [62.71425232332837]
雑音ラベル付きモデルを用いたトレーニングは安価で驚くほど効果的であることを示す。
このアプローチは、いくつかの特徴属性とデータ評価手法を著しく加速し、しばしば既存のアプローチよりも桁違いにスピードアップする。
論文 参考訳(メタデータ) (2024-01-29T03:42:37Z) - Efficient Online Data Mixing For Language Model Pre-Training [101.45242332613944]
既存のデータ選択方法は、遅くて計算コストのかかるプロセスに悩まされる。
一方、データミキシングは、データポイントをまとめることで、データ選択の複雑さを低減する。
我々は,データ選択とデータ混合の両要素を組み合わせたオンラインデータ混合(ODM)の効率的なアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-12-05T00:42:35Z) - RINAS: Training with Dataset Shuffling Can Be General and Fast [2.485503195398027]
RINASは、グローバルシャッフルデータセットをロードする際のパフォーマンスボトルネックに対処するデータローディングフレームワークである。
We implement RINAS under the PyTorch framework for common dataset library HuggingFace and TorchVision。
実験の結果,RINASは汎用言語モデルトレーニングと視覚モデルトレーニングのスループットを最大59%,視力モデルトレーニングは89%向上した。
論文 参考訳(メタデータ) (2023-12-04T21:50:08Z) - Fine tuning Pre trained Models for Robustness Under Noisy Labels [34.68018860186995]
トレーニングデータセットにノイズの多いラベルが存在することは、機械学習モデルのパフォーマンスに大きな影響を及ぼす可能性がある。
我々は、事前学習されたモデルの事前知識を頑健かつ効率的に伝達するTURNと呼ばれる新しいアルゴリズムを導入する。
論文 参考訳(メタデータ) (2023-10-24T20:28:59Z) - Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z) - Improved Distribution Matching for Dataset Condensation [91.55972945798531]
本稿では,分布マッチングに基づく新しいデータセット凝縮法を提案する。
提案手法は,計算資源の少ない従来の最適化指向手法よりも優れている。
論文 参考訳(メタデータ) (2023-07-19T04:07:33Z) - MAPS: A Noise-Robust Progressive Learning Approach for Source-Free
Domain Adaptive Keypoint Detection [76.97324120775475]
クロスドメインキーポイント検出方法は、常に適応中にソースデータにアクセスする必要がある。
本稿では、ターゲット領域に十分に訓練されたソースモデルのみを提供する、ソースフリーなドメイン適応キーポイント検出について考察する。
論文 参考訳(メタデータ) (2023-02-09T12:06:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。