論文の概要: Transfer learning in large-scale ocean bottom seismic wavefield
reconstruction
- arxiv url: http://arxiv.org/abs/2004.07388v1
- Date: Wed, 15 Apr 2020 23:14:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 04:33:09.567705
- Title: Transfer learning in large-scale ocean bottom seismic wavefield
reconstruction
- Title(参考訳): 大規模海底地震波場復元における伝達学習
- Authors: Mi Zhang and Ali Siahkoohi and Felix J. Herrmann
- Abstract要約: 我々は、受信機サンプリングを高密度ソースサンプリングと同じ空間グリッドにするために、CNNを訓練する。
本研究の目的は, 比較的大規模な5次元データ合成データ量に対して, 慎重に選択した一連の実験を行うことで, この原理を証明することである。
- 参考スコア(独自算出の注目度): 5.512015494199453
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Achieving desirable receiver sampling in ocean bottom acquisition is often
not possible because of cost considerations. Assuming adequate source sampling
is available, which is achievable by virtue of reciprocity and the use of
modern randomized (simultaneous-source) marine acquisition technology, we are
in a position to train convolutional neural networks (CNNs) to bring the
receiver sampling to the same spatial grid as the dense source sampling. To
accomplish this task, we form training pairs consisting of densely sampled data
and artificially subsampled data using a reciprocity argument and the
assumption that the source-site sampling is dense. While this approach has
successfully been used on the recovery monochromatic frequency slices, its
application in practice calls for wavefield reconstruction of time-domain data.
Despite having the option to parallelize, the overall costs of this approach
can become prohibitive if we decide to carry out the training and recovery
independently for each frequency. Because different frequency slices share
information, we propose the use the method of transfer training to make our
approach computationally more efficient by warm starting the training with CNN
weights obtained from a neighboring frequency slices. If the two neighboring
frequency slices share information, we would expect the training to improve and
converge faster. Our aim is to prove this principle by carrying a series of
carefully selected experiments on a relatively large-scale five-dimensional
data synthetic data volume associated with wide-azimuth 3D ocean bottom node
acquisition. From these experiments, we observe that by transfer training we
are able t significantly speedup in the training, specially at relatively
higher frequencies where consecutive frequency slices are more correlated.
- Abstract(参考訳): 海底買収において望ましい受信機サンプリングを実現することは、コストの考慮からしばしば不可能である。
相互性や近代的ランダム化(同時ソース)海洋獲得技術によって得られる適切なソースサンプリングが可能であると仮定すると、我々は畳み込みニューラルネットワーク(CNN)を訓練して、レシーバサンプリングを高密度ソースサンプリングと同じ空間グリッドに持ってくる立場にある。
この課題を達成するために、互いに相反する議論とソースサイトサンプリングが密集した仮定を用いて、高密度なサンプルデータと人工的なサブサンプルデータからなるトレーニングペアを形成する。
このアプローチは単色周波数スライス回復に成功しているが、実際は時間領域データの波動場再構成に応用されている。
並列化オプションがあるにもかかわらず、各周波数でトレーニングと回復を独立に行うと、このアプローチの全体的なコストは禁じられる。
異なる周波数スライスが情報を共有するため、隣接する周波数スライスから得られたcnn重みを温めてトレーニングを開始することにより、計算効率を高めるために転送訓練法を提案する。
2つの隣接周波数スライスが情報を共有すれば、トレーニングが改善され、より速く収束することを期待します。
本研究の目的は,広帯域3次元海底ノード取得に伴う比較的大規模な5次元データ合成データ量について,慎重に選択した実験を行うことで,この原理を実証することである。
これらの実験から,トランスファートレーニングにより,連続周波数スライスがより相関する比較的高い周波数において,トレーニングの大幅な高速化が達成できることがわかった。
関連論文リスト
- Deep learning-based shot-domain seismic deblending [1.6411821807321063]
我々は,各帆行の最後に獲得した未完成のショットコレクションを利用する。
これらのデータを手動でブレンドすることで、地上の真実をうまく制御したトレーニングデータが得られる。
隣接するブレンドショット集合を含むマルチチャネル入力を用いてディープニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2024-09-13T07:32:31Z) - Efficient NeRF Optimization -- Not All Samples Remain Equally Hard [9.404889815088161]
ニューラルレイディアンスフィールド(NeRF)の効率的なトレーニングのためのオンラインハードサンプルマイニングの応用を提案する。
NeRFモデルは、多くの3D再構成およびレンダリングタスクに対して最先端の品質を生み出すが、かなりの計算資源を必要とする。
論文 参考訳(メタデータ) (2024-08-06T13:49:01Z) - On Optimal Sampling for Learning SDF Using MLPs Equipped with Positional
Encoding [79.67071790034609]
我々は、好ましくない副作用を伴わずに、正確な暗黙の場を学習するための適切なサンプリング率を決定するツールを考案した。
PEを具備したPEは、PE層の最高周波数成分よりも内在周波数がはるかに高いことが観察された。
SDFフィッティングの設定において,この推奨サンプリングレートは正確なフィッティング結果の確保に十分であることを示す。
論文 参考訳(メタデータ) (2024-01-02T10:51:52Z) - Transform Once: Efficient Operator Learning in Frequency Domain [69.74509540521397]
本研究では、周波数領域の構造を利用して、空間や時間における長距離相関を効率的に学習するために設計されたディープニューラルネットワークについて検討する。
この研究は、単一変換による周波数領域学習のための青写真を導入している。
論文 参考訳(メタデータ) (2022-11-26T01:56:05Z) - ScoreMix: A Scalable Augmentation Strategy for Training GANs with
Limited Data [93.06336507035486]
GAN(Generative Adversarial Networks)は通常、限られたトレーニングデータが利用できる場合、過度に適合する。
ScoreMixは、様々な画像合成タスクのための、新しくスケーラブルなデータ拡張手法である。
論文 参考訳(メタデータ) (2022-10-27T02:55:15Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - AdaNeRF: Adaptive Sampling for Real-time Rendering of Neural Radiance
Fields [8.214695794896127]
新たなビュー合成は、スパース観測から直接神経放射場を学習することで、近年革新されている。
この新たなパラダイムによる画像のレンダリングは、ボリュームレンダリング方程式の正確な4分の1は、各光線に対して大量のサンプルを必要とするため、遅い。
本稿では,必要なサンプル点数を最大限に削減する方法を学習し,方向性を示す新しいデュアルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-07-21T05:59:13Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z) - Fast accuracy estimation of deep learning based multi-class musical
source separation [79.10962538141445]
本稿では,ニューラルネットワークのトレーニングやチューニングを行うことなく,任意のデータセットにおける楽器の分離性を評価する手法を提案する。
理想的な比マスクを持つオラクルの原理に基づいて、我々の手法は最先端のディープラーニング手法の分離性能を推定するための優れたプロキシである。
論文 参考訳(メタデータ) (2020-10-19T13:05:08Z) - Complete parameter inference for GW150914 using deep learning [0.0]
LIGOとVirgoの重力波観測所は過去5年間に多くのエキサイティングな出来事を観測してきた。
検出速度は検出器感度とともに増加するため、データ解析において計算上の課題が増大する。
本研究では,重力波に対する高速確率自由ベイズ推定にディープラーニング手法を適用した。
論文 参考訳(メタデータ) (2020-08-07T18:00:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。