論文の概要: StorSeismic: A new paradigm in deep learning for seismic processing
- arxiv url: http://arxiv.org/abs/2205.00222v1
- Date: Sat, 30 Apr 2022 09:55:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-03 16:32:28.844695
- Title: StorSeismic: A new paradigm in deep learning for seismic processing
- Title(参考訳): StorSeismic: 地震処理のためのディープラーニングの新しいパラダイム
- Authors: Randy Harsuko and Tariq Alkhalifah
- Abstract要約: StorSeismicは地震データ処理のフレームワークである。
我々は, 自己監督段階において, 人工的に生成された地震データとともに, 事前訓練を行った。
そして,ラベル付き合成データを用いて,事前学習したネットワークを教師付き方式で微調整し,各種の耐震処理を行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learned tasks on seismic data are often trained sequentially and
separately, even though they utilize the same features (i.e. geometrical) of
the data. We present StorSeismic, as a framework for seismic data processing,
which consists of neural network pre-training and fine-tuning procedures. We,
specifically, utilize a neural network as a preprocessing model to store
seismic data features of a particular dataset for any downstream tasks. After
pre-training, the resulting model can be utilized later, through a fine-tuning
procedure, to perform tasks using limited additional training. Used often in
Natural Language Processing (NLP) and lately in vision tasks, BERT
(Bidirectional Encoder Representations from Transformer), a form of a
Transformer model, provides an optimal platform for this framework. The
attention mechanism of BERT, applied here on a sequence of traces within the
shot gather, is able to capture and store key geometrical features of the
seismic data. We pre-train StorSeismic on field data, along with synthetically
generated ones, in the self-supervised step. Then, we use the labeled synthetic
data to fine-tune the pre-trained network in a supervised fashion to perform
various seismic processing tasks, like denoising, velocity estimation, first
arrival picking, and NMO. Finally, the fine-tuned model is used to obtain
satisfactory inference results on the field data.
- Abstract(参考訳): 地震データに関する機械学習タスクは、同じ特徴(幾何学的)を利用していても、逐次および個別に訓練されることが多い。
本稿では,StorSeismicを,ニューラルネットワークの事前学習と微調整処理からなる地震データ処理のフレームワークとして紹介する。
具体的には,ニューラルネットワークをプリプロセッシングモデルとして利用し,ダウンストリームタスクに特定のデータセットの地震データ特徴を格納する。
事前訓練後、得られたモデルを微調整手順で後で利用し、限られた追加訓練を用いてタスクを実行する。
自然言語処理(NLP)や近年の視覚タスクでよく使用されるBERT(Bidirectional Encoder Representations from Transformer)は、Transformerモデルの形式であり、このフレームワークに最適なプラットフォームを提供する。
BERTのアテンションメカニズムは、ここでショットコレクション内の一連のトレースに適用され、地震データの重要な幾何学的特徴を捉え、保存することができる。
我々は,フィールドデータと合成生成データについて,自己教師付きステップで事前学習する。
そして,ラベル付き合成データを用いて事前学習したネットワークを教師付き方式で微調整し,デノナイズ,速度推定,最初の到着ピック,NMOなどの各種耐震処理を行う。
最後に、微調整モデルを用いて、フィールドデータに対する良好な推測結果を得る。
関連論文リスト
- A convolutional neural network approach to deblending seismic data [1.5488464287814563]
本稿では,高速かつ効率的な地震探査のためのデータ駆動深層学習手法を提案する。
地震データの特徴に応じて畳み込みニューラルネットワーク(CNN)を設計する。
ネットワークのトレーニングと検証を行った後、ほぼリアルタイムで地震波のたわみを行うことができる。
論文 参考訳(メタデータ) (2024-09-12T10:54:35Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Neural Koopman prior for data assimilation [7.875955593012905]
ニューラルネットワークアーキテクチャを使って、潜在空間に動的システムを埋め込む。
本研究では,このようなモデルを長期の継続的再構築のために訓練する手法を提案する。
また,変動データ同化手法の先行として,訓練された動的モデルの有望な利用を示すとともに,自己教師型学習の可能性も示された。
論文 参考訳(メタデータ) (2023-09-11T09:04:36Z) - Optimizing a Transformer-based network for a deep learning seismic
processing workflow [0.0]
StorSeismicは、様々な地震処理タスクに対応するためにTransformerをベースとした最近導入されたモデルである。
微調整作業における事前学習と競争の速さを観察し,バニラモデルと比較してトレーニングすべきパラメータを少なくする。
論文 参考訳(メタデータ) (2023-08-09T07:11:42Z) - SynBench: Task-Agnostic Benchmarking of Pretrained Representations using
Synthetic Data [78.21197488065177]
近年、下流のタスクで大規模なデータで事前訓練された微調整大型モデルが成功し、ディープラーニングにおける重要なパラダイムシフトにつながった。
本稿では,合成データを用いて事前学習した表現の質を測定するためのタスク非依存フレームワークであるtextitSynBenchを提案する。
論文 参考訳(メタデータ) (2022-10-06T15:25:00Z) - Self-Distillation for Further Pre-training of Transformers [83.84227016847096]
我々は、さらなる事前学習段階の正則化として自己蒸留を提案する。
画像およびテキスト分類タスクのための様々なベンチマークデータセットにおける自己蒸留の有効性を実証的に検証する。
論文 参考訳(メタデータ) (2022-09-30T02:25:12Z) - MLReal: Bridging the gap between training on synthetic data and real
data applications in machine learning [1.9852463786440129]
本稿では,実際のデータ特徴を持つ合成データの教師付きトレーニングを強化するための新しいアプローチについて述べる。
トレーニング段階では、入力データは合成ドメインから、自動相関データは実ドメインからである。
推論/アプリケーション段階では、入力データは実サブセットドメインからであり、自己相関区間の平均は合成データサブセットドメインからである。
論文 参考訳(メタデータ) (2021-09-11T14:43:34Z) - Scene Synthesis via Uncertainty-Driven Attribute Synchronization [52.31834816911887]
本稿では,3次元シーンの多様な特徴パターンを捉えるニューラルシーン合成手法を提案する。
提案手法は,ニューラルネットワークと従来のシーン合成手法の双方の長所を結合する。
論文 参考訳(メタデータ) (2021-08-30T19:45:07Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Transfer Learning with Convolutional Networks for Atmospheric Parameter
Retrieval [14.131127382785973]
MetOp衛星シリーズに搭載された赤外線音波干渉計(IASI)は、数値気象予測(NWP)に重要な測定値を提供する
IASIが提供する生データから正確な大気パラメータを取得することは大きな課題であるが、NWPモデルでデータを使用するには必要である。
本研究では,iasiデータから抽出した特徴を,低い高度で異なる物理変数を予測するように設計された別の統計手法への入力として使用できることを示す。
論文 参考訳(メタデータ) (2020-12-09T09:28:42Z) - Pre-Trained Models for Heterogeneous Information Networks [57.78194356302626]
異種情報ネットワークの特徴を捉えるための自己教師付き事前学習・微調整フレームワークPF-HINを提案する。
PF-HINは4つのデータセットにおいて、各タスクにおける最先端の代替よりも一貫して、大幅に優れています。
論文 参考訳(メタデータ) (2020-07-07T03:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。