論文の概要: Dissecting U-net for Seismic Application: An In-Depth Study on Deep
Learning Multiple Removal
- arxiv url: http://arxiv.org/abs/2206.12112v1
- Date: Fri, 24 Jun 2022 07:16:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-27 23:45:27.094058
- Title: Dissecting U-net for Seismic Application: An In-Depth Study on Deep
Learning Multiple Removal
- Title(参考訳): 地震探査用U-netの分離:深層学習多重除去に関する深部研究
- Authors: Ricard Durall, Ammar Ghanim, Norman Ettrich, Janis Keuper
- Abstract要約: 地震処理は、しばしばデータ収集時に現れる多重を抑圧する必要がある。
我々は、その使い方の複雑さを減らしながら、競争力のある結果を提供するディープラーニングベースの代替案を提示します。
- 参考スコア(独自算出の注目度): 3.058685580689605
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Seismic processing often requires suppressing multiples that appear when
collecting data. To tackle these artifacts, practitioners usually rely on Radon
transform-based algorithms as post-migration gather conditioning. However, such
traditional approaches are both time-consuming and parameter-dependent, making
them fairly complex. In this work, we present a deep learning-based alternative
that provides competitive results, while reducing its usage's complexity, and
hence democratizing its applicability. We observe an excellent performance of
our network when inferring complex field data, despite the fact of being solely
trained on synthetics. Furthermore, extensive experiments show that our
proposal can preserve the inherent characteristics of the data, avoiding
undesired over-smoothed results, while removing the multiples. Finally, we
conduct an in-depth analysis of the model, where we pinpoint the effects of the
main hyperparameters with physical events. To the best of our knowledge, this
study pioneers the unboxing of neural networks for the demultiple process,
helping the user to gain insights into the inside running of the network.
- Abstract(参考訳): 地震処理は、しばしばデータ収集時に現れる多重を抑圧する必要がある。
これらのアーティファクトに取り組むために、実践者は通常、移行後のコレクションコンディショニングとしてラドン変換ベースのアルゴリズムに依存している。
しかし、そのような伝統的なアプローチは時間とパラメータに依存しており、かなり複雑である。
本研究では,その利用の複雑さを減らし,適用性を民主化しながら,競争力のある結果を提供する,ディープラーニングベースの代替手段を提案する。
複雑なフィールドデータを推定する際のネットワークの性能は,合成学でのみ訓練されているにもかかわらず良好である。
さらに,提案手法はデータ固有の特性を保存でき,不要な過剰な結果を避けつつ多重化を除去できることを示す。
最後に,本モデルの詳細な解析を行い,物理事象による主パラメータの影響を推定する。
私たちの知る限りでは、この研究は多重化プロセスのためのニューラルネットワークのアンボックス化を開拓し、ユーザがネットワークの内部動作に関する洞察を得るのに役立ちます。
関連論文リスト
- Data-Efficient Sleep Staging with Synthetic Time Series Pretraining [1.642094639107215]
本稿では,睡眠段階のためのニューラルネットワークを事前訓練する「周波数事前学習」という事前訓練タスクを提案する。
実験の結果,本手法は限られたデータと少ない主題のシナリオにおいて,完全に教師付き学習を超越していることがわかった。
論文 参考訳(メタデータ) (2024-03-13T14:57:10Z) - Fighting over-fitting with quantization for learning deep neural
networks on noisy labels [7.09232719022402]
両問題に一度に対処できる圧縮法について検討する。
我々は、ニューラルネットワークの表現性を制限することによって、量子化を意識したトレーニングが正規化として振る舞うことを仮定する。
論文 参考訳(メタデータ) (2023-03-21T12:36:58Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - BatchFormer: Learning to Explore Sample Relationships for Robust
Representation Learning [93.38239238988719]
本稿では,各ミニバッチからサンプル関係を学習可能なディープニューラルネットワークを提案する。
BatchFormerは各ミニバッチのバッチ次元に適用され、トレーニング中のサンプル関係を暗黙的に探索する。
我々は10以上のデータセットに対して広範な実験を行い、提案手法は異なるデータ不足アプリケーションにおいて大幅な改善を実現する。
論文 参考訳(メタデータ) (2022-03-03T05:31:33Z) - An Information-Theoretic Framework for Supervised Learning [22.280001450122175]
後悔とサンプルの複雑さという独自の概念を持つ新しい情報理論フレームワークを提案する。
本稿では、ReLUアクティベーションユニットを用いたディープニューラルネットワークによって生成されたデータから学習する際のサンプルの複雑さについて検討する。
我々は、ランダムな単層ニューラルネットワークの実験的な解析により、理論結果を裏付けることで結論付ける。
論文 参考訳(メタデータ) (2022-03-01T05:58:28Z) - Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay [67.50637511633212]
生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
論文 参考訳(メタデータ) (2021-12-09T07:11:14Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z) - Active Importance Sampling for Variational Objectives Dominated by Rare
Events: Consequences for Optimization and Generalization [12.617078020344618]
本稿では,レアイベントサンプリング手法とニューラルネットワーク最適化を組み合わせて,レアイベントに支配される目的関数を最適化する手法を提案する。
重要度サンプリングは学習問題に対する解の分散を減少させ,一般化の利点を示唆することを示す。
数値実験により,高次元データと希少データの複合化が困難である場合でも,学習を成功させることができた。
論文 参考訳(メタデータ) (2020-08-11T23:38:09Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z) - On the Robustness of Active Learning [0.7340017786387767]
Active Learningは、機械学習アルゴリズムをトレーニングする上で最も有用なサンプルを特定する方法に関するものだ。
十分な注意とドメイン知識を持っていないことがよくあります。
そこで本研究では,Simpson の多様性指標に基づく新たな "Sum of Squared Logits" 手法を提案する。
論文 参考訳(メタデータ) (2020-06-18T09:07:23Z) - Beyond Dropout: Feature Map Distortion to Regularize Deep Neural
Networks [107.77595511218429]
本稿では,ディープニューラルネットワークの中間層に関連する実験的なRademacher複雑性について検討する。
上記の問題に対処するための特徴歪み法(Disout)を提案する。
より高い試験性能を有するディープニューラルネットワークを作製するための特徴写像歪みの優位性を解析し、実証した。
論文 参考訳(メタデータ) (2020-02-23T13:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。