論文の概要: Beyond Convolutions: A Novel Deep Learning Approach for Raw Seismic Data
Ingestion
- arxiv url: http://arxiv.org/abs/2102.13631v1
- Date: Fri, 26 Feb 2021 18:12:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-01 14:03:13.908908
- Title: Beyond Convolutions: A Novel Deep Learning Approach for Raw Seismic Data
Ingestion
- Title(参考訳): Beyond Convolutions: 生の地震データ取得のための新しいディープラーニングアプローチ
- Authors: Zhaozhuo Xu, Aditya Desai, Menal Gupta, Anu Chandran, Antoine
Vial-Aussavy, Anshumali Shrivastava
- Abstract要約: 従来の地震処理(SPW)は高価であり、1年以上の人的および計算的努力を必要とします。
深層学習(DL)に基づくデータ駆動地震(DSPW)は、これらのタイムラインを数分に短縮する可能性を秘めている。
我々は、畳み込みから脱却する根本的なシフトを提案し、SE: Set Embedding based SDI approachを紹介します。
- 参考スコア(独自算出の注目度): 24.89067028570047
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional seismic processing workflows (SPW) are expensive, requiring over
a year of human and computational effort. Deep learning (DL) based data-driven
seismic workflows (DSPW) hold the potential to reduce these timelines to a few
minutes. Raw seismic data (terabytes) and required subsurface prediction
(gigabytes) are enormous. This large-scale, spatially irregular time-series
data poses seismic data ingestion (SDI) as an unconventional yet fundamental
problem in DSPW. Current DL research is limited to small-scale simplified
synthetic datasets as they treat seismic data like images and process them with
convolution networks. Real seismic data, however, is at least 5D. Applying 5D
convolutions to this scale is computationally prohibitive. Moreover, raw
seismic data is highly unstructured and hence inherently non-image like. We
propose a fundamental shift to move away from convolutions and introduce SESDI:
Set Embedding based SDI approach. SESDI first breaks down the mammoth task of
large-scale prediction into an efficient compact auxiliary task. SESDI
gracefully incorporates irregularities in data with its novel model
architecture. We believe SESDI is the first successful demonstration of
end-to-end learning on real seismic data. SESDI achieves SSIM of over 0.8 on
velocity inversion task on real proprietary data from the Gulf of Mexico and
outperforms the state-of-the-art U-Net model on synthetic datasets.
- Abstract(参考訳): 従来の地震処理ワークフロー(SPW)は高価であり、1年以上の人的および計算的努力を必要とします。
深層学習(DL)に基づくデータ駆動型地震波動ワークフロー(DSPW)は、これらのタイムラインを数分に短縮する可能性を秘めている。
生地震データ(テラバイト)と必要な地下予測(ギガバイト)は巨大である。
この大規模で空間的に不規則な時系列データは、DSPWの非定型かつ根本的な問題として地震データ取り込み(SDI)を引き起こします。
現在のDL研究は、画像のような地震データを処理し、畳み込みネットワークで処理する、小規模な単純化された合成データセットに限られている。
しかし、実際の地震データは少なくとも5Dです。
このスケールに5次元畳み込みを適用することは計算的に禁止される。
さらに、生の地震データは高度に非構造であり、本質的に画像的ではない。
我々は、畳み込みから脱却する根本的なシフトを提案し、SESDI: Set Embedding based SDI approachを導入します。
SESDIは、まず大規模な予測のマンモスタスクを効率的なコンパクトな補助タスクに分解する。
SESDIはその新しいモデルアーキテクチャでデータに不規則性を優雅に組み込む。
SESDIは、実際の地震データに関するエンドツーエンド学習の実証に初めて成功しました。
SESDIはメキシコ湾の実際のプロプライエタリなデータに対するベロシティインバージョンタスクにおいて0.8以上のSSIMを達成し、合成データセット上で最先端のU-Netモデルを上回っている。
関連論文リスト
- A Novel Diffusion Model for Pairwise Geoscience Data Generation with Unbalanced Training Dataset [8.453075713579631]
UB-Diff'はマルチモーダルなペア型科学データ生成のための新しい拡散モデルである。
1つの大きな革新は、1対2のエンコーダ・デコーダネットワーク構造であり、コラテント表現からペアのデータを確実に得ることができる。
OpenFWIデータセットの実験結果から,UB-DiffはFr'echet Inception Distance(FID)スコアとペア評価において,既存の技術よりも優れていた。
論文 参考訳(メタデータ) (2025-01-01T19:49:38Z) - MegaSynth: Scaling Up 3D Scene Reconstruction with Synthesized Data [59.88075377088134]
合成データを用いたトレーニングにより3次元シーン再構成のスケールアップを提案する。
私たちの研究の中心は、700Kシーンからなる手続き的に生成された3DデータセットであるMega Synthです。
実験の結果,Mega Synthとの共同トレーニングや事前トレーニングにより,画像領域間で1.2~1.8dBPSNRの再現性が改善された。
論文 参考訳(メタデータ) (2024-12-18T18:59:38Z) - A convolutional neural network approach to deblending seismic data [1.5488464287814563]
本稿では,高速かつ効率的な地震探査のためのデータ駆動深層学習手法を提案する。
地震データの特徴に応じて畳み込みニューラルネットワーク(CNN)を設計する。
ネットワークのトレーニングと検証を行った後、ほぼリアルタイムで地震波のたわみを行うことができる。
論文 参考訳(メタデータ) (2024-09-12T10:54:35Z) - Quanv4EO: Empowering Earth Observation by means of Quanvolutional Neural Networks [62.12107686529827]
本稿は、大量のリモートセンシングデータの処理において、量子コンピューティング技術を活用することへの大きなシフトを取り上げる。
提案したQuanv4EOモデルでは,多次元EOデータを前処理するための準進化法が導入された。
主要な知見は,提案モデルが画像分類の精度を維持するだけでなく,EOのユースケースの約5%の精度向上を図っていることを示唆している。
論文 参考訳(メタデータ) (2024-07-24T09:11:34Z) - Computationally and Memory-Efficient Robust Predictive Analytics Using Big Data [0.0]
本研究では、データ不確実性、ストレージ制限、ビッグデータを用いた予測データ駆動モデリングの課題をナビゲートする。
本稿では,ロバスト主成分分析(RPCA)を有効ノイズ低減と外乱除去に利用し,最適センサ配置(OSP)を効率的なデータ圧縮・記憶に活用する。
論文 参考訳(メタデータ) (2024-03-27T22:39:08Z) - Dataset Quantization [72.61936019738076]
大規模データセットを小さなサブセットに圧縮する新しいフレームワークであるデータセット量子化(DQ)を提案する。
DQは、ImageNet-1kのような大規模データセットを最先端圧縮比で蒸留する最初の方法である。
論文 参考訳(メタデータ) (2023-08-21T07:24:29Z) - The Devil in the Details: Simple and Effective Optical Flow Synthetic
Data Generation [19.945859289278534]
本稿では,光学フローデータセットの要求特性が比較的単純であり,簡易な合成データ生成法を提案する。
2次元動きに基づくデータセットでは、合成データセットを生成するための最も単純だが重要な要素を体系的に分析する。
論文 参考訳(メタデータ) (2023-08-14T18:01:45Z) - LargeST: A Benchmark Dataset for Large-Scale Traffic Forecasting [65.71129509623587]
道路交通予測はスマートシティのイニシアチブにおいて重要な役割を担い、ディープラーニングの力によって大きな進歩を遂げている。
しかし、現在の公開データセットで達成される有望な結果は、現実的なシナリオには適用できないかもしれない。
カリフォルニアで合計8,600のセンサーと5年間の時間カバレッジを含む、LargeSTベンチマークデータセットを紹介します。
論文 参考訳(メタデータ) (2023-06-14T05:48:36Z) - Dataset Distillation: A Comprehensive Review [76.26276286545284]
データセット蒸留(DD)は、トレーニングされたモデルが元のデータセットでトレーニングされたデータセットに匹敵するパフォーマンスを得るために、合成サンプルを含むはるかに小さなデータセットを導出することを目的としている。
本稿ではDDの最近の進歩とその応用について概説する。
論文 参考訳(メタデータ) (2023-01-17T17:03:28Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - Semi-synthesis: A fast way to produce effective datasets for stereo
matching [16.602343511350252]
現実に近いテクスチャレンダリングは、ステレオマッチングのパフォーマンスを高める重要な要素です。
実物に近いテクスチャーで大量のデータを合成する効果的かつ高速な方法である半合成法を提案します。
実際のデータセットのさらなる微調整により、MiddleburyのSOTAパフォーマンスとKITTIおよびETH3Dデータセットの競争結果も達成します。
論文 参考訳(メタデータ) (2021-01-26T14:34:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。