論文の概要、ライセンス

# (参考訳) 生成逆ネットワークに基づく地震波逆モデリング法 [全文訳有]

Seismic Inverse Modeling Method based on Generative Adversarial Network ( http://arxiv.org/abs/2106.04197v1 )

ライセンス: CC BY 4.0
Pengfei Xie, YanShu Yin, JiaGen Hou, Mei Chen and Lixin Wang(参考訳) 地震逆モデリングは貯留層予測において一般的な手法であり、石油とガスの探査と開発において重要な役割を担っている。 従来の地震インバージョン法と地質構造に関する複雑で抽象的な知識を組み合わせることは困難であり,その不確実性を評価することは困難である。 本稿では, 地質, ウェルログ, 地震データに整合したGANに基づく逆モデリング手法を提案する。 GANは、トレーニング画像の空間構造と抽象的特徴を抽出する最も有望な生成モデルアルゴリズムである。 訓練されたGANは、特定のモードでモデルを再現することができる。 テストでは、1000モデルが1秒で生成されました。 評価後の訓練されたGANに基づいて、ベイズ反転フレームを通してモデルの最適結果を計算することができる。 その結果, インバージョンモデルは観測データに適合し, 高速発生の前提下での不確実性は低いことがわかった。 この地震逆モデリング法は、逆繰り返しの効率と品質を高める。 地震データと地質学の知識を融合させて研究・応用する価値がある。

Seismic inverse modeling is a common method in reservoir prediction and it plays a vital role in the exploration and development of oil and gas. Conventional seismic inversion method is difficult to combine with complicated and abstract knowledge on geological mode and its uncertainty is difficult to be assessed. The paper proposes an inversion modeling method based on GAN consistent with geology, well logs, seismic data. GAN is a the most promising generation model algorithm that extracts spatial structure and abstract features of training images. The trained GAN can reproduce the models with specific mode. In our test, 1000 models were generated in 1 second. Based on the trained GAN after assessment, the optimal result of models can be calculated through Bayesian inversion frame. Results show that inversion models conform to observation data and have a low uncertainty under the premise of fast generation. This seismic inverse modeling method increases the efficiency and quality of inversion iteration. It is worthy of studying and applying in fusion of seismic data and geological knowledge.
公開日: Tue, 8 Jun 2021 09:14:39 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Seismic Inverse Modeling Method based on 地震探査に基づく逆モデリング手法 0.75
Generative Adversarial Network 生成型adversarial network 0.83
Pengfei Xie1, YanShu Yin2, JiaGen Hou1,* , Mei Chen1 and Lixin Wang2 1. Pengfei Xie1, YanShu Yin2, JiaGen Hou1,* , Mei Chen1, Lixin Wang2 1。 0.94
College of Geosciences, China University of Petroleum, Beijing, 102249 2. 北京の中国石油大学地球科学科、102249頁。 0.56
School of Geosciences, Yangtze University, Wuhan,430100 長江大学地学専攻、武漢430100 0.55
*Corresponding Author, e-mail: 207872336@qq.com Key points: The paper proposed method bridge a gap between geophysics data and geological knowledge. 筆者: 207872336@qq.comキーポイント: この論文は地球物理学データと地質学知識のギャップを埋める方法を提案した。 0.72
The paper proposed method solves 3-D poststack seismic inversion problem, is more useful to application of production and development. 提案手法は, 生産・開発に有用である3次元ポストスタック地震インバージョン問題を解くものである。 0.72
The paper proposed method generate models with low uncertainty and faster speed. 提案手法は,不確実性の低い高速モデルを生成する。 0.74
Abstract: Seismic inverse modeling is a common method in reservoir prediction and it plays a vital role in the exploration and development of oil and gas. 要約:地震逆モデリングは貯水池予測において一般的な手法であり、石油とガスの探査と開発において重要な役割を担っている。
訳抜け防止モード: abstract : seismic inverse modelingは貯水池予測における一般的な手法である 石油やガスの探査や開発において 重要な役割を担っています
0.79
Conventional seismic inversion method is difficult to combine with complicated and abstract knowledge on geological mode and its uncertainty is difficult to be assessed. 従来の地震インバージョン法と地質構造に関する複雑で抽象的な知識を組み合わせることは困難であり,その不確実性を評価することは困難である。
訳抜け防止モード: 従来の地震インバージョン法と地質学的複雑な抽象的な知識を組み合わせることは困難である 不確実性の評価は困難です
0.83
The paper proposes an inversion modeling method based on GAN consistent with geology, well logs, seismic data. 本稿では, 地質, ウェルログ, 地震データに整合したGANに基づく逆モデリング手法を提案する。 0.75
GAN is a the most promising generation model algorithm that extracts spatial structure and abstract features of training images. GANは、トレーニング画像の空間構造と抽象的特徴を抽出する最も有望な生成モデルアルゴリズムである。 0.85
The trained GAN can reproduce the models with specific mode. 訓練されたGANは、特定のモードでモデルを再現することができる。 0.56
In our test, 1000 models were generated in 1 second. テストでは、1000モデルが1秒で生成されました。 0.72
Based on the trained GAN after assessment, the optimal result of models can be calculated through Bayesian inversion frame. 評価後の訓練されたGANに基づいて、ベイズ反転フレームを通してモデルの最適結果を計算することができる。 0.72
Results show that inversion models conform to observation data and have a low uncertainty under the premise of fast generation. その結果, インバージョンモデルは観測データに適合し, 高速発生の前提下での不確実性は低いことがわかった。 0.64
This seismic inverse modeling method increases the efficiency and quality of inversion iteration. この地震逆モデリング法は、逆繰り返しの効率と品質を高める。 0.67
It is worthy of studying and applying in fusion of seismic data and geological knowledge. 地震データと地質学の知識を融合させて研究・応用する価値がある。 0.68
Keywords: generative adversarial networks, training images, multi-point geostatistics, seismic inversion キーワード: 生成的敵ネットワーク, 訓練画像, 多点統計, 地震インバージョン 0.81
英語(論文から抽出)日本語訳スコア
1 Introduction Geological modeling has become a conventional mean to guide production in the middle and late stages of petroleum development and it is the core of reservoir characterization. はじめに 地質モデリングは,石油開発中期から後期にかけての生産をガイドする従来の手段となり,貯水池のキャラクタリゼーションのコアとなっている。 0.68
However, there are complicated underground geology and strong reservoir heterogeneity, resulting in limitations of various modeling methods. しかし、複雑な地下地質学と強い貯水池の不均一性があり、様々なモデリング手法の限界が生じる。 0.66
In applications, it is difficult to predict subsurface geology by geological statistics. 地質学的な統計から地下地質を予測することは困難である。 0.67
Conventional statistical modeling method simulate realizations with high uncertainty and geologists have to combine seismic data with geostatistical modeling. 従来の統計モデリング手法は不確実性の高い実現をシミュレートするものであり、地質学者は地震データと測地モデルを組み合わせる必要がある。
訳抜け防止モード: 従来の統計モデル手法は不確実性の高い実現をシミュレートする 地質学者は地震データと地球統計モデリングを組み合わせる必要があります
0.65
Seismic measurements have high resolution in lateral (Mukerji T et al , 1997), even though seismic data is noisy and low resolution in vertical. 地震観測は横方向の高分解能(Mukerji T et al , 1997)であり, 縦方向の高分解能・低分解能である。 0.69
Seismic data play a key role in reducing uncertainty of geological modeling (Jeong C et al , 2017). 地震データは地質モデルの不確実性を低減する上で重要な役割を担っている(jeong c et al, 2017)。 0.63
However, it is nearly impossible to find a linear relationship between well logs and seismic data. しかし、井戸ログと地震データとの線形関係を見つけることはほぼ不可能である。 0.69
The key of seismic inverse modeling is to simulate facies models that can confirm to conditional well points and seismic data. 地震逆モデリングの鍵は、条件付き井戸点と地震データを確認するファシーモデルをシミュレートすることである。 0.77
Many statistical modeling methods have been applied to combine geophysical data and geological modeling methods in real applications. 多くの統計モデリング手法が実際の応用における物理データと地質モデリング法の組み合わせに応用されている。 0.69
There have been two ways: soft data and Bayesian inversion (Doyen P M et al , 2007; Bosch M et al , 2010). ソフトデータとベイズ反転(Doyen P M et al , 2007; Bosch M et al , 2010)の2つの方法がある。 0.68
In some geological software, seismic data is transformed to probability maps as soft data and soft data can control geostatistical simulation (Dubrule O et al., 2003; Li FM et al., 2007). いくつかの地質学ソフトウェアでは、地震データはソフトデータとして確率マップに変換され、ソフトデータは地球統計シミュレーションを制御できる(dubrule o et al., 2003; li fm et al., 2007)。 0.75
In the Bayesian inversion, geostatistical simulation provides models as geologically consistent prior models (Eidsvik J et al , 2004; Lochbuhler T et al , 2015). ベイズ反転において、地理統計学シミュレーションは地質学的に一貫した先行モデルとしてモデルを提供する(Eidsvik J et al , 2004; Lochbuhler T et al , 2015)。 0.74
Rock-physics relations can link the seismic data and reservoir property. 岩石物理関係は地震データと貯水池特性を結びつけることができる。 0.64
The forward synthetic seismic data are compared with obtained seismic data to calculate the likelihood, final solutions are posterior models consistent with geological pattern, well data, and seismic data. 前方合成地震データと得られた地震データを比較して推定し、最終解は地質パターン、井戸データ、地震データと一致した後方モデルである。 0.71
In this process, sequential method or multi-point geostatistics (MPS) method is used to generate models as prior models (Haas A et al , 1994; Gonzalez E F et al , 2008). このプロセスでは、先行モデルとして逐次法または多点測地学(MPS)法を用いてモデルを生成する(Haas A et al , 1994; Gonzalez E F et al , 2008)。 0.86
The sequential method (Strebelle S et al., 2000) can reflect the statistical relationship and characterize spatial structure incompletely. 逐次的手法(Strebelle S et al., 2000)は統計的関係を反映し、空間構造を不完全に特徴づける。 0.75
The MPS can reproduce patterns of training image (Mariethoz G., 2010; Mariethoz G et al , 2014; Pyrcz, M. J et al , 2012), but the computational time of generation is longer than sequential method, which results in the increasement of each inversion iteration. MPSはトレーニング画像のパターンを再現できる(Mariethoz G., 2010; Mariethoz G et al , 2014; Pyrcz, M. J et al , 2012)が、生成の計算時間は逐次法よりも長く、各反転反復の増加をもたらす。 0.74
Therefore, the MPS have no ability to reach the requirements of statistic inversion application. したがって、MPSは統計反転アプリケーションの要求を満たすことができない。 0.65
In the field of image recognition, deep learning algorithm has been extensively applied in extraction of data pattern and reproduction of image features. 画像認識の分野では、深層学習アルゴリズムがデータパターンの抽出や画像特徴の再現に広く応用されている。 0.84
The practical effect of deep learning algorithm is often better than those of traditional methods. ディープラーニングアルゴリズムの実践的効果は、しばしば従来の手法よりも優れている。 0.76
One of the most successful generative model algorithms is the generative adversarial networks (GANs). 最も成功した生成モデルアルゴリズムの1つは生成逆ネットワーク(gans)である。 0.80
GAN possesses the incomparable advantages in data mining and mode generation and it can characterize the deep hidden data structures. GANはデータマイニングとモード生成において相容れないアドバンテージを持ち、深い隠れデータ構造を特徴付けることができる。 0.68
GAN has been applied widely in the field of geological modeling since it was proposed by GANは地質モデリングの分野で広く応用されてきた。 0.58
英語(論文から抽出)日本語訳スコア
Goodfellow (Goodfellow, I. J et al , 2014). Goodfellow (Goodfellow, I. J et al , 2014)。 0.85
First of all, the CT images of micro-pores were trained by using GAN, the GAN can reproduce the micro-pore structures and implement conditional modeling through the slice constraints (Mosser L et al , 2017). まず, マイクロ孔のCT画像は, GANを用いて訓練し, GANはマイクロ孔構造を再現し, スライス制約を通した条件モデリングを実現する(Mosser L et al , 2017)。 0.81
And then, GAN was applied in parametrization and generation of geological models (Chan S et al., 2017). そして、GANをパラメトリゼーションと地質モデルの生成に適用した(Chan S et al., 2017)。 0.74
Subsequently, GAN was applied to inversion of seismic waveform (Mosser L et al , 2019). その後、GANは地震波形の逆転に適用された(Mosser L et al , 2019)。 0.73
The inversion results conformed well to the observation points, which proved feasibility of inversion algorithm. インバージョン結果は観測点とよく一致し, インバージョンアルゴリズムの実現可能性を示した。 0.61
Laloy learned the two-dimensional and three-dimensional images (which are called training images in multiple-point geostatistics) by DCGAN and optimized based on GPU parallel computation and sampling algorithm, which increased the modeling speed and decreased uncertainty of the model (Laloy E et al , 2012; Laloy E et al , 2018; Laloy E et al , 2017). laloyはdcganによって二次元および三次元画像(多点ジオ統計学のトレーニング画像と呼ばれる)を学び、gpu並列計算とサンプリングアルゴリズムに基づいて最適化し、モデルのモデリング速度と不確かさを増加させた(laloy e et al , 2012; laloy e et al , 2018; laloy e et al , 2017)。 0.78
Zhang Tuanfeng et al learned the field geological mode by using GAN and achieve conditioning modeling of virtual conditional points, which verified feasibility of GAN in geological modeling (Zhang T F et al., 2019. Zhang Tuanfengらは、GANを用いてフィールド地質モードを学び、仮想条件点の条件付きモデリングを実現し、地質モデリングにおけるGANの有効性を検証する(Zhang T F et al., 2019)。 0.79
Zhu L et al., 2019). 2019年、zhu l. et al.)。 0.60
Song bridged the gap between Geophsics data and geology with GANs (Song S et al., 2021; Song S et al.,2021). 宋は地質学と地質学のギャップをGAN(Song S et al., 2021; Song S et al., 2021)で埋めた。 0.71
GAN-based modeling method was improved continuously subsequently, including improvement of GAN loss function and algorithm optimization. GANに基づくモデリング手法は、GAN損失関数の改善やアルゴリズム最適化など、連続的に改善された。 0.71
It becomes an intelligent modeling technique with strong applications gradually. それは徐々に強力な応用を持つインテリジェントなモデリング技術になる。 0.65
In this study, the binary categories channel-mud training image were learned based on deep convolutional generative adversarial neural network (DCGAN). 本研究では,dcgan(deep convolutional generative adversarial neural network)を用いて,二値カテゴリのチャネル-mudトレーニングイメージを学習した。 0.78
Moreover, an inversion study of Markov Chain Monte Carlo (MCMC) sampling was carried out by combining the constraints of production wells in practical research area, which achieved fast generation and uncertainty assessment of the models. さらに, 実用研究分野における生産井の制約を組み合わせることで, マルコフ連鎖モンテカルロ(mcmc)サンプリングの逆解析を行い, モデルの高速生成と不確実性評価を実現した。 0.79
2 Methodology and Principles 2.1 Principle of GAN 2 方法論と原則 2.1 GANの原則 0.81
GAN consists of two networks with different functions: generator network and discriminator network. GANは、ジェネレータネットワークと識別器ネットワークという、異なる機能を持つ2つのネットワークから構成される。 0.54
Since convolutional neural network has advantages in extraction of image features, the proposed GAN is composed of convolutional neural networks, including a convolutional neural network and a convolutional neural network. 畳み込みニューラルネットワークは画像特徴の抽出に有利であるため、提案したGANは畳み込みニューラルネットワークと畳み込みニューラルネットワークを含む畳み込みニューラルネットワークで構成されている。 0.75
GANs extract and characterize feature maps which are used as the input data through the convolutional operation of filter, thus increasing the depth of data expression. ganは、フィルタの畳み込み操作を通じて入力データとして使用される特徴マップを抽出、特徴付けし、データ表現の深さを増加させる。 0.66
Hidden spatial structure of input data, or known as the spatial features of geological model, can be considered more explicitly. 入力データの隠れた空間構造、あるいは地質モデルの空間的特徴はより明確に考えることができる。 0.73
The basic principle of convolution is to get several feature matrixes through convolution, unfold them in rows and connect them into vectors which are transmitted into the fully connected layer. 畳み込みの基本原理は、畳み込みを通じていくつかの特徴行列を取得し、それらを行に展開し、完全に連結された層に伝達されるベクトルに接続することである。 0.64
The full connection is similar with BP neural network and each feature map can be viewed as neurons which are arranged in the matrix form. 完全な接続はbpニューラルネットワークと似ており、各特徴マップはマトリクス形式で配列されたニューロンとして見ることができる。 0.79
英語(論文から抽出)日本語訳スコア
Input data of each convolutional layer has to be transformed through the Eq (1): 各畳み込み層の入力データをeq(1)を通して変換する必要がある。 0.73
where the input information is V. conv2() is the convolution operation function, W is a weight matrix and X is an input matrix. conv2() は畳み込み演算関数であり、w は重み行列、x は入力行列である。
訳抜け防止モード: 入力情報は V. conv2 ( ) で、畳み込み演算関数です。 W は重み行列である X は入力行列である。
0.75
The third parameter is the type of convolutional operation and b is the bias. 第3のパラメータは畳み込み操作のタイプであり、bはバイアスである。 0.78
The output information is gained through the Eq (2): 出力情報はeq(2)を介して取得される。 0.80
V=conv2(W,X,valid)+b (1) Y=φ(V) (2) V=conv2(W,X,valid)+b (1) Y=φ(V) (2) 0.90
where Y is the vector of network output and φ is an activation function, such as Sigmoid, tanh and ここで Y はネットワーク出力のベクトルであり、φ は Sigmoid, tanh などの活性化関数である。 0.85
ReLu. In this study, Leaky ReLu (Glorot X et al , 2011) was applied. ReLu 本研究では,Leaky ReLu (Glorot X et al , 2011)を適用した。 0.68
Fig 1. Illustration of the GAN structure in context of the geological modeling. 図1。 地質モデリングの文脈におけるgan構造の例 0.63
The generator gets a random noise vector as latent input and generate a fake image to discriminator. 発電機は遅延入力としてランダムノイズベクトルを取得し、判別器に偽画像を生成する。 0.72
The discriminator distinguishes fake image from real training image and output a “true” or “false” to loss function. 判別器は、偽画像と実際の訓練画像とを区別し、損失機能に“true”または“false”を出力する。 0.76
Finally, the loss function calculates weight and feedback to generator and discriminator by Eq (3). 最後に、損失関数は、eq(3)により、生成器および判別器への重量およびフィードバックを算出する。 0.64
GAN is composed of a generator and discriminator in structures (Fig 1). GANは、構造中のジェネレータと識別器から構成される(図1)。 0.67
In the training process, the generator and discriminator reach the equilibrium convergence through a dynamic adversarial process until the generated images are difficult to be distinguished. トレーニングプロセスでは、生成した画像の区別が困難になるまで、ジェネレータと判別器は動的対向過程を通じて平衡収束に達する。 0.77
The generator is a convolutional neutral network and receives one random noise (Z) which represents a series of random vectors that can control distribution of data. ジェネレータは畳み込みニュートラルネットワークであり、データの分布を制御できる一連のランダムベクトルを表す1つのランダムノイズ(Z)を受信する。
訳抜け防止モード: 発電機は畳み込みニュートラルネットワークであり、1つのランダムノイズ(Z)を受信する。 データの分布を制御できる一連のランダムなベクトルを表す。
0.86
This noise vector Z generates a new image (this new image has different distribution with the training image, but similar features). このノイズベクトルZは、新しい画像を生成する(この新しい画像は、トレーニング画像と異なる分布を持つが、同様の特徴を持つ)。 0.75
The discriminator is a convolutional network which is used to distinguish the real images from fake ones. 識別器は、実際の画像を偽のものと区別するために使用される畳み込みネットワークである。 0.72
It inputs images, and outputs probability of judging reality and feedbacks to the generator. イメージを入力し、現実を判断する確率とフィードバックをジェネレータに出力する。 0.73
Scanning all data once is called as an epoch and the optimal results are realized after several epochs. すべてのデータを一度スキャンすることはエポックと呼ばれ、最適結果はエポック後に実現される。 0.57
The whole process is an optimization function (Eq. プロセス全体は最適化関数(Eq)である。 0.92
(3)): 𝑚𝑚𝑚𝑚𝑚𝑚𝐺𝐺(∙)𝑚𝑚𝑚𝑚𝑚𝑚𝐷𝐷(∙){𝐸𝐸𝐱𝐱~𝑃𝑃𝑑𝑑𝑑𝑑𝑑𝑑𝑑𝑑(𝐗𝐗)[log (𝐷𝐷(𝐗𝐗)]+𝐸𝐸𝒛𝒛~𝑝𝑝(𝐙𝐙)[log(1−𝐷𝐷(𝐺𝐺(𝑍𝑍)))]} (3) (3)): mmmmGG(シュ)mmmmDD(シュ){EExx~PPdddddddd(XX)[log (DD(XX)]+EEzz~pp(ZZ)[log(1-DD(GG(ZZ)))]} (3) 0.82
This optimization function can be understood that the Eq (3) shall be maximized when updating the discriminator (D), but it shall be minimized when updating the generator (G). この最適化関数は、判別器(D)を更新する際にはEq (3)を最大化するが、生成器(G)を更新する際には最小化する。 0.81
The total probability is 1. 全体の確率は 1 である。 0.80
It converges until the probabilities of both discriminator and generator are 0.5. 判別器と生成器の確率が0.5になるまで収束する。 0.67
The convergence 収束 0.40
英語(論文から抽出)日本語訳スコア
process is shown in Fig 2. プロセスは図2に示します。 0.86
Fig 2. GAN converging process (Goodfellow, 2014). 図2。 gan converging process (goodfellow, 2014) の略。 0.70
In Fig 2, the blue dotted line is the distribution of the discrimination model (D), the black dotted line is the distribution of real data (pdata), and the green solid line is the distribution (pg) that is learned by the generative model (G). 図2では、青い点線は識別モデル(d)の分布、黒い点線は実データ(pdata)の分布、緑の固形線は生成モデル(g)によって学習される分布(pg)である。 0.67
The lower horizontal line is the region of uniform sampling noise (z) and the upper horizontal line is the region of data (x). 下部水平線は一様サンプリングノイズ(z)の領域であり、上部水平線はデータ(x)の領域である。 0.67
The upward arrow represents that the random noise is transformed into data (x=G). 上の矢印は、ランダムノイズがデータ(x=G)に変換されることを示す。 0.65
Fig 2 shows the process of GAN convergence from the left to the right. 図2は、左から右へのgan収束の過程を示しています。 0.74
2.2 GAN quality assessment 2.2 GANの品質評価 0.70
It is necessary to assess quality of neural network before Bayesian inversion modeling in order to assure that the training of neural network can extract reservoir spatial structure and statistical features in training images quickly and accurately. ニューラルネットのトレーニングが画像のリザーバ空間構造と統計的特徴を迅速かつ正確に抽出できることを保証するためには,ベイズ反転モデル以前のニューラルネットの品質を評価する必要がある。 0.79
The high-quality generative model is an important indicator that the training process of GAN reaches to convergence. 高品質生成モデルはganの訓練プロセスが収束することを示す重要な指標である。 0.79
The models which are generated by GAN after training have high similarity with the original training image in term of geological features, including continuity and geometrical morphology of channel facies in the model. GANが訓練後に生成したモデルは、モデル内のチャネル相の連続性と幾何学的形態を含む地質学的特徴の観点から、元のトレーニング画像と高い類似性を有する。 0.83
Therefore, it is necessary to make a quantitative evaluation for training quality of GAN by calculating parameter in spatial statistics. そのため,空間統計学のパラメータを算出し,GANのトレーニング品質を定量的に評価する必要がある。 0.85
In this paper, the variogram and connectivity functions (CF) of GAN simulations and 本稿では,GANシミュレーションのバリアグラムと接続関数(CF)について述べる。 0.70
training image are calculated in different directions (three direction x,y,z) at each lag. トレーニング画像は、ラグ毎に異なる方向(3方向x,y,z)で計算される。 0.80
The variogram is defined as the variance of the difference between two spatial points of the same facies separated by a given lag distance. ヴァリグラム 与えられたラグ距離で区切られた同じ相の2つの空間点間の差の分散として定義される。 0.64
while the CF is the probability that there exists a continuous path of the same facies between two points of the same facies separated by a given lag distance. cf は、与えられたラグ距離によって分離された同一のファシーの2つの点の間に同じファシーの連続経路が存在する確率である。 0.76
The distribution of spatial statistics curves can certify the stability of simulations. 空間統計曲線の分布はシミュレーションの安定性を証明できる。 0.81
英語(論文から抽出)日本語訳スコア
Fig 3. A flowchart of Bayesian inverse modeling process with MCMC sampling. 図3。 mcmcサンプリングによるベイズ逆モデリングプロセスのフローチャート 0.66
In this process, GAN is used as a model generation and it can be applied to seismic inversion. このプロセスでは、GANをモデル生成として使用し、地震インバージョンに適用することができる。
訳抜け防止モード: このプロセスでは、モデル生成としてGANが使用される。 地震の逆転にも応用できます
0.77
MCMC algorithm samples a subset of points from last accepted model that Markov chain generates. MCMCアルゴリズムはマルコフ連鎖が生成する最後の受け入れモデルから点のサブセットをサンプリングする。 0.78
After enough iterations, the facies model generated by GAN can be considered as an inversion result. 十分な反復の後、GANによって生成されたフェイシモデルを逆結果と見なすことができる。 0.63
2.3 Bayesian inversion The selected GAN after assessment can optimize the learning effect of geological mode and it can recognize and extract the complicated spatial structure and geometric morphology which are difficult to be quantified. 2.3 ベイズ反転 選択されたGANは、地質学的モードの学習効果を最適化することができ、定量化が難しい複雑な空間構造や幾何学的形態を認識・抽出することができる。
訳抜け防止モード: 2.3 ベイズ反転 地質学的モードの学習効果を最適化した選択gan評価 そして、定量化が難しい複雑な空間構造と幾何学的形態を認識し抽出することができる。
0.76
It can provide the optimal prior geological information and model generator for the inversion. インバージョンのための最適な事前地質情報とモデル生成器を提供することができる。 0.65
In the Bayesian inversion, GAN after training assessment can be used as the generator of geological model. ベイズ・インバージョンでは、訓練後のGANを地質モデルの生成源として用いることができる。 0.55
Then the prior facies model is converted to seismic responses in forward simulation. そして, 前方シミュレーションにおいて, 先行相モデルを地震応答に変換する。 0.80
The likelihood of the prior model compared to the seismic data is calculated. 地震データと比較した先行モデルの可能性を計算する。 0.72
The metropolis algorithm samples the posterior probability distribution with the observed data and assumed noise model. メトロポリスアルゴリズムは観測データと仮定雑音モデルを用いて後方確率分布をサンプリングする。 0.80
Depending on the acceptation/rejectio n criterion in Markov process, it is possible to obtain a chain of realizations aimed at characterizing the posterior distribution with Metropolis sampling. マルコフ過程における受容/放出基準によっては、メトロポリスサンプリングによる後方分布を特徴付けるための実現の連鎖を得ることができる。 0.71
Since conventional Markov chains can get stuck in a certain state for a long time, DS/MCMC sampling algorithm can help the chains reach the posterior distribution earlier. 従来のマルコフ鎖は長期間一定の状態に固定されるため、ds/mcmcサンプリングアルゴリズムは鎖の後方分布に早く到達するのに役立つ。 0.73
This paper use MCMC sampling algorithm to samples a subset of points from the previously accepted model instead of using random selection, and then use the points as conditioning data for 本稿では、MCMCサンプリングアルゴリズムを用いて、ランダム選択ではなく、予め受け入れられたモデルから点のサブセットをサンプリングし、その点を条件付きデータとして使用する。 0.75
英語(論文から抽出)日本語訳スコア
next simulated realization. 次に実現をシミュレートする。 0.55
Finally, results that are accepted by Metropolis criterion can be used to calculate the posterior distribution probability (PDF). 最後に、メトロポリス基準によって受け入れられる結果を用いて、後方分布確率を計算することができる(pdf)。 0.70
And we calculate a series of statistical information base on PDF, including expectations, variance, standard deviation (SD) and other statistical features. また,予測,分散,標準偏差(SD),その他の統計的特徴を含む,PDF上の一連の統計情報ベースを算出する。 0.90
The inversion result is a multi-dimensional posterior PDF, the mean model represents the most likely result of inversion, the error range is given by the variance model. 反転結果は多次元の後方pdfであり、平均モデルは反転の最も可能性の高い結果を表し、誤差範囲は分散モデルによって与えられる。 0.84
The implementation steps of inversion based on GAN are introduced as follows: (1) After several processes of GAN training and assessment, the optimal GAN is chosen and it can generate the model prior information (priori probability density function). ganに基づくインバージョンの実装手順は、(1)ganトレーニングと評価の複数の工程を経て、最適なganを選択し、モデル事前情報(プライオリ確率密度関数)を生成する。
訳抜け防止モード: GANに基づくインバージョンの実装手順は以下の通りである。 : (1 ) GAN トレーニングとアセスメントの何回かのプロセスを経て, 最適なGANが選択されます そして、事前情報(事前確率密度関数)を生成できる。
0.81
The posteriori probability distribution function (PDF) is solved by the Bayesian formula based on the relationship between the priori information and observation data. プライオリ情報と観測データとの関係に基づいてベイズ公式により後方確率分布関数(pdf)を解く。 0.72
The formula is: 式は次のとおりである。 0.43
𝑝𝑝(𝑚𝑚|𝑑𝑑) = 𝑝𝑝�𝑑𝑑�𝑚𝑚�𝑝𝑝(𝑚𝑚) 𝑝𝑝(𝑑𝑑) 𝑝𝑝(𝑚𝑚|𝑑𝑑) = 𝑝𝑝�𝑑𝑑�𝑚𝑚�𝑝𝑝(𝑚𝑚) 𝑝𝑝(𝑑𝑑) 0.97
is the priori probability density distribution of model parameters, which is known as the data データとして知られるモデルパラメータの事前確率密度分布です 0.68
where 𝑑𝑑 is the N-dimensional observation data and 𝑚𝑚 is the M-dimensional model parameter, which can be viewed as a random variable in the inversion process. dd が n-次元観測データであり、mm が m-次元モデルパラメータであり、反転過程において確率変数と見なすことができる。 0.83
𝑝𝑝(𝑑𝑑) is a normalized constant and 𝑝𝑝(𝑚𝑚) distribution of GAN. pp(dd) は gan の正規化定数であり、pp(mm) 分布である。 0.80
𝑝𝑝(𝑚𝑚|𝑑𝑑) is the conditional probability of 𝑚𝑚 to the observation data (𝑑𝑑), which is known as the posteriori distribution 𝑝𝑝(𝑑𝑑|𝑚𝑚) is called as the likelihood function and it is generally written as 𝐿𝐿(𝑚𝑚) . p(mm|dd) は観測データ (dd) に対するmm の条件付き確率であり、後続分布 pp(dd|mm) は確率関数として知られ、一般に LL(mm) と書く。 0.76
The common expression of likelihood function is a multi-dimensional Gaussian 確率関数の共通表現は多次元ガウスである 0.75
(4) (4) 0.59
distribution: 𝐿𝐿(𝑚𝑚)= 分布: 𝐿𝐿(𝑚𝑚)= 0.83
�(2𝜋𝜋)𝑁𝑁|𝐶𝐶𝑑𝑑|𝑒𝑒𝑒𝑒𝑝𝑝�−�𝑑𝑑−𝑑𝑑(𝑚𝑚)�𝑇𝑇𝐶𝐶𝑑𝑑−1(𝑑𝑑−𝑑𝑑(𝑚𝑚)) 1 � �(2𝜋𝜋)𝑁𝑁|𝐶𝐶𝑑𝑑|𝑒𝑒𝑒𝑒𝑝𝑝�−�𝑑𝑑−𝑑𝑑(𝑚𝑚)�𝑇𝑇𝐶𝐶𝑑𝑑−1(𝑑𝑑−𝑑𝑑(𝑚𝑚)) 1 � 0.68
2 where 𝑑𝑑(𝑚𝑚) is the forward modeling response and 𝐶𝐶𝑑𝑑 is the covariance matrix of data. 2 ここで dd(mm) はフォワードモデリング応答であり、CCdd はデータの共分散行列である。 0.81
The likelihood function reflects the matching process between the model and data, and the posteriori distribution can be gained through a likelihood function and posteriori probability. 度数関数はモデルとデータとのマッチング過程を反映しており、後続分布は度数関数と後続確率によって得ることができる。 0.54
(5) (5) 0.59
(2) A parallel operation was performed by the MCMC algorithm and several Markov chains are generated by the posteriori distribution. 2)mcmcアルゴリズムにより並列動作を行い,後方分布により複数のマルコフ鎖が生成される。 0.71
Each chain starts from any point and then is transformed gradually through the transfer probability. 各連鎖は任意の点から始まり、転送確率を通じて徐々に変換される。 0.82
Points are adjusted randomly one by one. ポイントはランダムに1つずつ調整される。 0.71
After enough times of sampling, the global posteriori distribution converges to the stability, and an inversion reservoir model with different standard deviations (theoretically close to the maximum accuracy) is gained. 十分なサンプリング時間を経て、大域的な後方分布が安定性に収束し、異なる標準偏差(理論的には最大精度に近い)を持つ反転貯水池モデルが得られる。 0.77
3 Results 3.1 Training of GAN 3 結果 3.1 GAN の訓練 0.85
A binary categories channel-mud model was chosen as the training image (Fig 3). トレーニング画像として、バイナリカテゴリチャネルミュードモデルが選択された(図3)。 0.74
This training この訓練は 0.79
英語(論文から抽出)日本語訳スコア
image was collected from the Australia Morse River valley model in the training image library (http://www.training images.org/training- images-library.html) . image was collected from the Australian Morse River Valley model in the training image library (http://www.training images.org/training- images-library.html) 。 0.68
The total number of grids was 120×150×180 pixels. グリッドの総数は120×150×180ピクセルである。 0.71
This training image has evident channel features and is a strip on axis Z. このトレーニング画像は明らかにチャネル特徴を有し、軸Z上のストリップである。 0.68
The channel is straight along on axis Y, but it looks like a lentoid with a flat top and convex base perpendicular on axis X. チャネルはY軸に直進しているが、X軸に垂直な平らな上部と凸面を持つレンチノイドのように見える。 0.79
The proportion of facies channel is 0.51 and the proportion of facies mud is 0.49. ファシーチャネルの割合は 0.51 であり、ファシー泥の割合は 0.49 である。 0.68
(a)3-D training image (a)3次元訓練画像 0.87
(b)The plane of orientation X (c)The plane of orientation Z (b)向きの平面 X(c)向きの平面 Z 0.63
(d) The plane of orientation Y (d)向きの平面 Y 0.67
Fig 4. Training image and three planes. 図4。 訓練用画像と飛行機3機。 0.69
On the orientation X, the model is characteristic of a flat top and a convex base. 向き x について、このモデルは平坦な頂部と凸基部の特徴である。 0.66
On the orientation Y, the model is a continuous stripe and it presents uneven stripped distributions on the orientation Z. 向き Y では、モデルは連続ストライプであり、方向 Z 上に不均一に取り除かれた分布を示す。 0.76
(Yellow represents channel, blue represents mud) (黄はチャンネル、青は泥) 0.68
In the GAN algorithm, 3×3×3 kernel size median filter is chosen for feature convolution of the training image. GANアルゴリズムでは、トレーニング画像の特徴畳み込みに対して、3×3×3カーネルサイズ中央フィルタを選択する。 0.69
The one-dimensional vectors which can reflect the hidden layer of the space were gained through five convolutional layers and one channel (or called as number of feature maps). 空間の隠れた層を反映できる一次元ベクトルは、5つの畳み込み層と1つのチャネル(または多くの特徴写像)を通して得られる。 0.85
In 0.43
英語(論文から抽出)日本語訳スコア
each training period, the batch_size was set 25, indicating that data learning of each training needs 25 batches of processing (batch_size). 各トレーニング期間毎にバッチ_sizeが設定され、各トレーニングのデータ学習には25バッチの処理(バッチ_size)が必要であることを示す。 0.67
The generator generates 129×129×129 random model by a 5×5×5 kernel filter through transposed convolution. 生成器は5×5×5カーネルフィルタにより129×129×129ランダムモデルを生成する。 0.65
Under the collaborative operation of intel E3 central processing unit (CPU) and Quadro P5000 graphics processing unit (GPU), GAN finishes 50 epochs in 0.5h and the neural networks after 50 epoches of training are gained. intel e3 central processing unit (cpu) と quadro p5000 graphics processing unit (gpu) の共同運用により、ganは0.5hで50エポックを終了し、トレーニング後のニューラルネットワークは50エポッシュを得る。 0.75
These neural networks can achieve thousands of realizations in 1s. これらのニューラルネットワークは1秒で何千もの実現を達成できる。 0.60
The random models which are generated by neural networks with 1-16, 17-32 and 33-48 epoches are shown in Fig 4a, b, c. With the increasement of training times, neural networks can learn geological models (e g width of rivers on the plane, continuity of lateral channel and morphology of channel of flat top and convex base) in the training images more effectively, and reflect flowing direction, width and continuity features of channel better. 1-16, 17-32, 33-48エポッチを持つニューラルネットワークによって生成されるランダムモデルが図4a, b, cに示され, トレーニング時間の増加に伴い, ニューラルネットワークは, トレーニング画像における地質モデル(平面上の河川の幅, 平面上の河川の幅, 平面上の河道の連続性, 平面上の河道および凸台流路の形態)をより効果的に学習し, 流路の方向, 幅, 連続性を反映する。 0.80
It is worth mentioning that training process is not a stable process and training times can affect the training results directly within a certain range. トレーニングプロセスは安定したプロセスではなく、トレーニング時間が特定の範囲内でトレーニング結果に直接影響を及ぼすことに注意が必要だ。 0.75
Therefore, the process to the local optimal solution is fluctuating and it generally can only approach to the optimal solution (gradient descent method, details see Arjovsky M et al , 2017). したがって、局所最適解への過程は変動しており、一般に最適解にのみアプローチすることができる(勾配降下法、詳細はarjovsky m et al , 2017)。 0.77
After some times of training, quality of the generative model is still changing. ある程度のトレーニングの後、生成モデルの品質はまだ変化しています。 0.79
The network training degree is controlled through the W loss function (Arjovsky M et al , 2017). ネットワークトレーニングの学位は、W損失関数(Arjovsky M et al , 2017)を介して制御される。 0.81
Hence, it is necessary to evaluate the quality of trained neural network. したがって、訓練されたニューラルネットワークの品質を評価する必要がある。 0.74
We can evaluate the quantity of realizations generated by neural networks through calculating the spatial function (variogram, connectivity function). 空間関数(ヴァリグラム,接続関数)を計算することにより,ニューラルネットワークが生成する実現の量を評価することができる。 0.74
While the difference of spatial functions of various facies on different direction is small, the GAN that generates models can be judged as the high-quality neural network. 異なる方向における様々な相の空間関数の差は小さいが、モデルを生成するGANは高品質のニューラルネットワークと判断できる。 0.82
英語(論文から抽出)日本語訳スコア
(a) Models derived by GAN after epoch 1-16 (a)1-16期以降のGANによるモデル 0.63
(b) Models derived by GAN after epoch 17-32 b)17-32期以降のGANによるモデル 0.69
(c) Models derived by GAN after epoch 33-48 (c)33-48期以降のGANによるモデル 0.62
Fig 5. The models of GAN with 1-48 epochs are generated by GAN in the same random seed. 背番号5。 1-48エポックのGANのモデルは、同じランダムシードでGANによって生成される。 0.54
The GAN after higher epoch can generates better quality models until the convergence, these models shows that the result of epoch 46 have the best quality in vision. より高いエポック後のganは収束するまでより良い品質のモデルを生成することができ、これらのモデルはエポック46の結果が視覚において最高の品質を持つことを示している。
訳抜け防止モード: 高エポック後のGANは収束までより良い品質モデルを生成することができる。 これらのモデルは エポック46の結果は 視界で最高の品質です
0.79
The realizations derived by GAN after 46 epochs show similar patterns as TI. 46年代以降のGANによる実現はTIと類似したパターンを示した。 0.63
Variogram of ヴァリグラム 0.48
英語(論文から抽出)日本語訳スコア
models derived by GAN after 46 epochs and TI on different directions are shown in Fig 6a, b, c. CF (connectivity function) of models derived by GAN after 46 epochs and TI on different directions are shown in Fig 7a, b, c. 46エポック後のGANと、46エポック後のTIの異なる方向のモデルを図6a,b,cに示す。46エポック後のGANとTIの異なる方向のモデルのCF(接続関数)を図7a,b,cに示す。 0.76
Fig 6. Variogram of 100 random models derived by GAN after training epoch 46. 背番号6。 訓練後ganから導出した100個のランダムモデルの変動値46。 0.53
The green solid lines represent 100 realizations of size of 129*129*129 GAN realizations. 緑色の固体線は、129*129*129 GANの100個のサイズの実現を表す。 0.72
The red solid line signifies the mean for patches of size 100*100*50 randomly selected from the 200*340*80 training image. 赤い固体線は200*340*80のトレーニング画像からランダムに選択された100*100*50サイズのパッチの平均を示す。 0.78
The two dashed blue lines represent the minimum and maximum value at each lag. 2本の青い線は、各ラグにおける最小値と最大値を表している。 0.70
The variogram is calculated for each facies in different directions. ヴァリグラムは、異なる方向の相毎に算出される。 0.62
The CF and variogram distributions are all calculated for each facies on different directions. cf分布と変量分布は、それぞれ異なる方向の周波数ごとに計算される。 0.67
The result shows that CF and variogram of models generated by GAN is almost identical to TI. その結果, GAN が生成するモデルの CF とヴァリグラムは TI とほぼ同一であることが示唆された。
訳抜け防止モード: その結果は GANが生成するモデルのCFとヴァリグラムはTIとほぼ同じである。
0.73
According to definition of variogram, two facies has the same variogram in binary model. ヴァリグラムの定義によれば、2つのファシズムはバイナリモデルで同じヴァリグラムを持つ。 0.56
So variogram curves of facies mud equal to facies channel. したがって、ファシー・マッドの変分曲線はファシー・チャンネルに等しい。 0.42
Moreover, two spatial function curves of generations concentrate surrounding the curves of training image. さらに、トレーニング画像の曲線を囲む2つの世代の空間関数曲線が集中する。 0.78
Almost all of models generated by GAN distribute between maximum and minimum of training image (blue dashed lines in fig 6). GANが生成するほぼすべてのモデルは、トレーニングイメージの最大値と最小値(図6の青い破線)に分散している。
訳抜け防止モード: GANが生成するほぼ全てのモデルが、訓練画像の最大値と最小値に分散している (図6の青い破線)
0.84
A good correlation is observed in variograms and CFs between training image and realizations: the maximum absolute deviation of variograms is 0.01, while the maximum absolute deviation of CFs is 0.1. トレーニング画像と実現画像の間には,最大絶対偏差が0.01であり,cfsの最大絶対偏差が0.1である。
訳抜け防止モード: 訓練画像と実像のヴァリグラムとCFに良い相関関係が観察される : 最大絶対偏差は0.01, 最大絶対偏差は0.1であった。
0.76
Generations come from 世代は 0.50
英語(論文から抽出)日本語訳スコア
training image so that the result is reasonable. 結果が妥当になるようにトレーニングイメージ。 0.71
Obviously, generations have high stability in statistic. もちろん、世代は統計学の安定性が高い。 0.76
The comparison between generations and training image shows a strong ability in learning features of the training image. 世代画像とトレーニング画像の比較は、トレーニング画像の特徴を学習する上で強い能力を示す。 0.82
Through quality assessment of GAN, the models generated by neural network after 46 epochs (Fig 8) achieves the best effect and the trained GAN can be used in Bayesian inversion. GANの品質評価を通じて、46エポック後のニューラルネットワークによって生成されたモデル(図8)は、最良の効果を達成し、トレーニングされたGANをベイズ反転に使用することができる。
訳抜け防止モード: GANの品質評価を通じて,46時間後にニューラルネットワークによって生成されたモデル 図8)は最高の効果を達成する そして、訓練されたGANはベイズ反転に使用できる。
0.73
Fig 7. Connectivity function (CF) of 30 random models derived by GAN after training epoch 46. 背番号7。 訓練後ganから導出した30個のランダムモデルの接続関数(cf) 0.54
The green solid lines represent 30 realizations of size of 129*129*129 GAN realizations. 緑の固体線は、129*129*129 GANの30個のサイズの実現を表す。 0.71
The red solid line signifies the mean for patches of size 100*100*50 randomly selected from the 200*340*80 training image. 赤い固体線は200*340*80のトレーニング画像からランダムに選択された100*100*50サイズのパッチの平均を示す。 0.78
The two dashed lines represent the minimum and maximum value at each lag. 2本の破線は、各ラグにおける最小値と最大値を表す。 0.73
The CF is calculated for each facies in different directions. cfは、各フェーシスごとに異なる方向で計算される。 0.74
英語(論文から抽出)日本語訳スコア
Fig 8. (a) training image shown in Figure 4, (b)-(i) randomly selected 129*129*50 realizations derived by GAN of 図8。 (a)図4に示す訓練画像(b)-(i)ganによるランダム選択129*129*50の実現 0.72
epoch 46. For visual convenience, the original TI was cropped to 129*129*50. 第46話。 視覚の便宜のため、元のtiは129*129*50に切り抜かれた。 0.56
The randomly chosen realizations are generated by GAN after 46 epochs are presented in Fig 8. 46エポックの後、ganによりランダムに選択された実現が図8に示される。
訳抜け防止モード: ランダムに選択された実現は GAN after によって生成される 46のエポックを図8に示す。
0.66
Fig 6 and fig 7 show the associated variogram and connectivity functions. fig 6 と fig 7 は関連する変動関数と接続関数を示す。 0.82
In vision, the realizations show similar geometric features on plane and vertical profile as the training image. 視覚では、実現は、訓練画像として平面と垂直形状に類似した幾何学的特徴を示す。 0.62
And the facies fraction in TI are same as the average over 100 generations: facies channel: 0.51 versus 0.508 and facies mud: 0.49 versus 0.492. tiのfacies fractionは100世代以上の平均値と同じである: facies channel: 0.51対0.508、facies mud: 0.49対 0.492。 0.76
3.2 Inversion modeling based on GAN 3.2 GANに基づくインバージョンモデリング 0.76
The GAN which are chosen by quality assessment can be applied to the Bayesian inversion program. 品質評価によって選択されたGANはベイズ反転プログラムに適用できる。 0.71
In the case study, a research area with a size of 60×60×30 pixels and a pixel size of 50m×50m×1m was selected, in which 19 wells were set an average interval of 500m. ケーススタディでは,60×60×30ピクセルと50m×50m×1mの画素が選択され,平均500mの井戸が19個設定された。 0.74
The location of wells is shown in Fig 9-a. 井戸の位置は図9-aに示されている。 0.67
The well logs data include velocity, density and lithofacies interpretation result. well logsのデータには、velocity、 density、lithofaciesの解釈結果が含まれている。 0.57
And channel facies velocity ranges from 4800m/s to 5000 m/s, density ranges from 2.6g/cm3 to 2.8g/cm3, mud facies velocity ranges from 4000 m/s to 4300 m/s, density ranges from 1.9 g/cm3 to 2.4 g/cm3. 流路流速は4800m/sから5000m/s、密度は2.6g/cm3から2.8g/cm3、泥流速は4000m/sから4300m/s、密度は1.9g/cm3から2.4g/cm3である。 0.59
The elastic property attribute values are distributed in two intervals, we can distinguish channel facies and mud facies by seismic response in forward simulation (40 Hz dominant Ricker wavelet is selected). 弾性特性特性値は2つの間隔で分布し, 前方シミュレーションにおける地震応答(40Hz支配リッカーウェーブレットを選択する)によりチャネル相と泥相を区別できる。 0.79
A seismic data with 40Hz frequency (general frequency) is used to compare with seismic response of the prior model. 40Hzの周波数(一般周波数)を持つ地震データを用いて,先行モデルの地震応答と比較した。 0.74
(Fig 9-b) (図9-b) 0.71
英語(論文から抽出)日本語訳スコア
(a) well locations (b) seismic data (a)井戸位置(b)地震データ 0.75
(a) well locations section of S3-S15 (a)S3-S15の井戸位置 0.74
(b) seismic data section of S3-S15 (b)S3-S15の地震データ 0.77
(e) well locations section of S9-S11 (e)S9-S11の井戸位置 0.79
Fig 9. (a) Well locations in research area and (b) seismic data with 40Hz. 背番号9。 (a)研究領域と(b)40Hzの地震データとの良好な位置。 0.68
(c-f) well sections and seismic data sections. (c-f)ウェルセクションと地震データセクション。 0.78
Facies in wells of section S3-S15 (orientation axes X) are shown in fig9-c, and seismic data response of section S3- 図9-cにS3-S15(方位軸X)の井戸の相とS3の地震データ応答を示す。 0.75
(f) seismic data section of S9-S11 (f)S9-S11の地震データ 0.80
英語(論文から抽出)日本語訳スコア
S15 is displayed in fig9-d. Facies in wells of section S9-S11 (orientation axes Y) are shown in fig9-c, and seismic data response of section S3-S15 is displayed in fig9-d. S15はfig9〜dに表示され、S9〜S11の井戸(方位軸Y)はfig9〜dに表示され、S3〜S15の地震データ応答はfig9〜dに表示される。
訳抜け防止モード: S15 は Fig9-d に表示されます。 そして、S3〜S15の地震データ応答をfig9〜dで表示する。
0.54
According to the well data and seismic data, elastic property, we can simulate the response of prior model. wellデータと地震データ、弾性特性により、先行モデルの応答をシミュレートすることができる。 0.73
As section 2.3 shows, we use the GAN selected by quality assessment to inverse modeling. セクション2.3が示すように、品質評価によって選択されたGANを逆モデリングに使用する。 0.59
And GAN generate models with the randomly drawn gaussian noise (3*3*3)θ=Z~U(−1,1) (models そして、GANはランダムに描画されたガウス雑音(3*3*3)θ=Z~U(−1,1)のモデルを生成する。 0.65
show as Fig 10) The prior model of Bayesian framework is chosen as a white noise model (true model), the measurement data have a (standard deviation) SD of 0.01m. 図10として示す)ベイズフレームワークの事前モデルはホワイトノイズモデル(真のモデル)として選択され、測定データは0.01mの(標準偏差)sdを持つ。 0.79
(a) True model (SD=0.01) (b) Inversion model (SD=0.012) (a)正モデル(SD=0.01)(b)逆モデル(SD=0.012) 0.74
(c) Inversion model (SD=0.015) (d) Inversion model(SD=0.021) (c)反転モデル(SD=0.015)(d)反転モデル(SD=0.021) 0.67
Fig 10. Lithofacies inversion model with different SD. 第10話。 Lithofacies inversion model with different SD。 0.59
(a) Ture model (b-d): 3 of 6 Markov chains evolved by MCMC after 30000 iterations per chain. (a) tureモデル(b-d):mcmcがチェーン毎に30000回繰り返して開発した6つのマルコフ鎖のうち3つ。 0.66
The model dimensions are 60*60*30. モデル寸法は60*60*30である。 0.80
(a) Seismic data in section S3-S15 (a)S3-S15地区の地震データ 0.67
英語(論文から抽出)日本語訳スコア
(b) Inversion simulation in section S3-S15 b) セクションS3-S15におけるインバージョンシミュレーション 0.65
(c) seismic data in section S9-S11 (c)S9-S11地区の地震データ 0.74
(d) Inversion simulation in section S9-S11 (d)S9-S11のインバージョンシミュレーション 0.73
Fig 11 Comparation from seismic data and inversion result. 第11図 地震データと逆解析結果との比較 0.84
(a) seismic data of section S3-S15(fig 9-d) and the inversion result is shown in fig11-b. (a)セクションS3〜S15(図9〜d)の地震データと反転結果を図11〜bに示す。
訳抜け防止モード: (a)S3-S15(図9-d)の地震データ 逆結果はfig11-bで示される。
0.70
(c) seismic data of section S9-S11(fig 9-f) and the inversion result is shown in fig 11-d. Yellow is facies channel and blue is facies mud. c)第s9節s11(図9-f)の地震データと逆解析結果が図11-dで示される。
訳抜け防止モード: (c)S9-S11(図9-f)と地震データ 逆転の結果は図11-dに示されます。黄色は空白チャネル、青は空白泥です。
0.74
In inversion framework, Metropolis-Hastings algorithm (an advanced algorithm of Metropolis) in MCMC method was chosen for a parallel calculation in a 12-core CPUs workstation. インバージョンフレームワークでは、MCMC方式のMetropolis-Hastingsアルゴリズム(Metropolis-Hastings アルゴリズム)が12コアCPUワークステーションの並列計算のために選択された。 0.74
The 12 Markov chains in parallel generate models using 12 CPUs in a uniform distribution [-1,1] (3*3*3 of θ). 12のマルコフ 並列の連鎖は12個のCPUを用いて一様分布 [-1,1] (3*3*3 of θ) のモデルを生成する。 0.74
The computational parameter is set as 30000 iterations per chain, which cost 1s per iteration, which means 4.1 days on a single core workstation or 8.3 hours on an Intel-Xeon E5 12-core CPUs workstation. 計算パラメータはチェーン毎に30000イテレーションと設定され、1回の反復で4.1日、intel-xeon e5 12コアcpuで8.3時間かかる。
訳抜け防止モード: 計算パラメータは1チェーンあたり30000イテレーションとして設定される。 つまり、単一のコアワークステーションで4.1日、Intel - Xeon E5 12コアワークステーションで8.3時間。
0.53
The distribution function of each Markov chain is uniform distribution and meets the symmetric random walking. 各マルコフ鎖の分布関数は一様分布であり、対称ランダム歩行と一致する。 0.84
The probability transfer cores are gained from the posteriori distribution, which is known as the probability distribution matrix of facies. 確率伝達コアは、相の確率分布行列として知られる後部分布から得られる。 0.61
In this way, the facies model is acquired. このようにして、faciesモデルが取得される。 0.71
A total of 12×30000 sampling iterations were performed in the whole inversion process, which cost 8h and got 12 results. インバージョンプロセス全体で合計12×30000回のサンプリングを行い、コストは8時間で12結果を得た。 0.76
All of these 12 results conformed to the conditional data completely accompanied with local tiny deviations. これらの12の結果はすべて、局所的な微小な偏差を伴う条件付きデータに合致した。 0.65
Due to the resolution of seismic data, thin channel sands match partially the seismic while thick channel sands match completely the seismic data. 地震データの分解能により,細水路砂は地震と部分的に一致し,厚い水路砂は地震データと完全に一致した。 0.63
(See Fig 11b and 11d) In these results, (図11b、11d参照)この結果。 0.73
英語(論文から抽出)日本語訳スコア
the minimum standard deviation was 0.013 and the maximum was 0.02. 最低標準偏差は0.013、最大偏差は0.02。 0.70
The facies inversion models with different standard deviations are shown in Fig 10b-d (3 results are selected) and the result with the smallest deviation is the optimal solution. 標準偏差の異なるファシー反転モデルが図10b-d(3つの結果が選択される)に示され、最小偏差が最適解となる。 0.85
Obliviously, the inversion facies models meet well with the priori gaussian white noise model (Fig 10a), showing low uncertainty. 必然的に、反転スペクトルモデルは先行ガウスの白色雑音モデル (fig 10a) とよく一致し、不確かさは低い。 0.69
This proves that the priori distribution generated by GAN has been used effectively in the inversion process. このことは、GANによって生成される事前分布が反転過程において効果的に使われたことを証明している。 0.49
(a) model 1 (b) model 2 (a)モデル1(b)モデル2 0.81
(c) model 3 (d) model 4 (c)モデル3(d)モデル4 0.81
Fig12. Models generated by MPS. 第12話。 MPSが生成するモデル。 0.56
The four realizations are generated by software Petrel. 4つの実現法はソフトウェアペトラによって生成される。 0.48
(a)Inversion in X direction (a)X方向の反転 0.75
英語(論文から抽出)日本語訳スコア
(b)MPS model in X direction (b)X方向MPSモデル 0.69
(c)Inversion in Y direction (d)MPS model in Y direction (c)Y方向の反転 (d)mpsのy方向モデル 0.68
Fig 13. Comparison of (a) and (c) the inversion model based on GAN with (b) and (d) the simulation based on MPS. 背番号13。 a) と (c) の GAN に基づく逆モデルと (b) と (d) のMPS に基づくシミュレーションを比較した。 0.61
The (a) and (c) vertical sections in orientation X and Y are selected from fig 10b. 図10bから(a)及び(c)方向X,Yの垂直部分を選択する。 0.73
(b) and (d) vertical sections in orientation X and Y are selected from fig 12a. (b)及び(d)方向x,yの垂直断面を図12aから選択する。 0.79
The optimal result of inversion model based on GAN and randomly selected simulations generated by multiple-point geostatistics (Strebelle S., 2000) were compared. GANに基づくインバージョンモデルの最適結果と多点統計学(Strebelle S., 2000)によるランダムに選択されたシミュレーションを比較した。 0.77
The four random models which are selected from 100 MPS simulations are shown in Fig 12a-d. 図12a-dに100mpsシミュレーションから選択した4つのランダムモデルを示す。 0.81
In MPS conditional modeling, we use the same training image and create pattern with 10×10×3 search mask. MPS条件モデリングでは、同じトレーニングイメージを使用して10×10×3の探索マスクでパターンを作成する。 0.70
And we simulate models by Snesim based on 19 conditional data (For details, see Strebelle S., 2002), and conditional wells show as Fig 9a). また,19条件データ(詳しくはstrebelle s., 2002)に基づくsnesimによるモデルシミュレーションを行い,条件付き井戸を図9aとして示す。 0.81
In the comparation of vertical sections between GAN-based inverse modeling and MPS (Fig 13a-d), we can see that the former results have better continuity and stability. GANをベースとした逆モデリングとMPS(図13a-d)の垂直断面積を比較したところ, 前者は連続性と安定性がよいことがわかった。 0.68
In the X direction section, the channel facies of inversion have better geometry than MPS model. X方向セクションでは、逆転のチャネル相はMPSモデルよりも幾何性がよい。 0.68
In the Y direction section, the channel facies of inversion have better continuity than MPS model, and have less noise. y方向の区間では、反転のチャネル周波数はmpsモデルよりも連続性が高く、ノイズも少ない。 0.64
All of results confirm to 19 conditional wells data (100% conditioning accuracy). すべての結果は19の条件付きウェルズデータ(100%条件付き精度)を確認した。 0.77
Given the same conditional data, GAN-based inverse modeling is better. 同じ条件データを考えると、GANベースの逆モデリングの方がよい。 0.65
The result shows that the paper proposed approach has an ability to learn geological knowledge and reproduce the pattern of channel in nature. その結果,提案手法は地質学の知識を習得し,自然のチャネルのパターンを再現する能力を持つことがわかった。 0.77
4 Discussions In this study, the results show that GAN-based inverse modeling method can generate a model with low-uncertainty and high conditioning accuracy. 4 討論 本研究では,GANに基づく逆モデリング手法により,不確実性と高い条件付け精度のモデルを生成することができることを示す。 0.67
Compared to seismic waveform inversion (Mosser L et al , 2019) and, the inverse modeling method solves three important issues: it uses a single model as a training image to learn pattern of geology, many researchers stress on big data and request 地震波形インバージョンとの比較 (Mosser L et al , 2019) と逆モデリング法では3つの重要な課題が解決されている。
訳抜け防止モード: 地震波形インバージョンとの比較 (Mosser L et al, 2019) 逆モデリング法は3つの重要な課題を解決します 単一のモデルを訓練画像として使い 地質学のパターンを学習します 多くの研究者がビッグデータと要求に
0.87
英語(論文から抽出)日本語訳スコア
a lot of training sets. 多くのトレーニングセット。 0.63
But the truth is that better data is more important than big data, if a good training image have all patterns we need, and the big data will increase the unexpected computations. しかし、本当のところ、優れたデータの方がビッグデータよりも重要である。優れたトレーニングイメージが必要なすべてのパターンを持ち、ビッグデータが予期せぬ計算量を増やすなら。 0.77
The latter point is that our proposed method solves 3-D seismic inversion problem, is more useful to application of production and development. 後者のポイントは,提案手法が3次元地震波逆解析を解決し,生産・開発に有用である点である。 0.74
The third one is that MCMC-sampling method and parallel algorithm can solve larger dimensional problem. 第三に、MCMCサンプリング法と並列アルゴリズムはより大きな次元問題を解くことができる。 0.77
Compared to geostatistical inversion using a spatial generative adversarial network (Laloy E et al., 2018), this approach applies geophysics attributes to inverse modeling, generally geologists have to processing the post-stack seismic data for interpretation. 空間生成逆数ネットワーク (Laloy E et al., 2018) を用いた地理統計インバージョンと比較して、この手法は逆モデリングに物理特性を適用し、一般に地質学者は解釈のためにポストスタック地震データを処理しなければならない。
訳抜け防止モード: 空間生成逆数ネットワーク(Laloy E et al ., 2018)による地形インバージョンとの比較 このアプローチは逆モデリングに物理特性を適用します 一般に地質学者は ポストを処理しなければなりません 解釈のためのスタック地震データ
0.71
This advantage make it become suitable to seismic data interpretation. この利点により、地震データ解釈に適している。 0.71
There are many solutions in seismic interpretation and stochastic modeling, even though simulations are controlled by conditional data. シミュレーションは条件データによって制御されているが、地震解析や確率モデリングには多くの解決策がある。 0.70
The inverse modeling can simulate a good quality model with low-uncertainty by sampling method. 逆モデリングは、サンプリング法により、低い不確かさで高品質なモデルをシミュレートすることができる。 0.58
And researchers often select model subjectively, which is unconvincing. そして、研究者はしばしばモデルを選択する。 0.63
The ability of uncertainty quantification makes the simulation results more convincing. 不確実性定量化の能力により、シミュレーションの結果はより説得力がある。 0.57
In addition, the inversion has no ability to direct conditioning to wells data, but sampling to conform to conditional data in a target level. さらに、インバージョンはウェルズデータに直接条件付けする機能を持たないが、ターゲットレベルの条件付きデータに適合するようにサンプリングする。 0.73
It is difficult to achieve absolute match between conditional data and seismic data. 条件データと地震データとの絶対一致は困難である。 0.72
If we could expect the seismic interpretation section as conditional data, actually sampling algorithm will be improved (Lixin W et al., 2021). 地震解釈部を条件データとして期待できれば、実際にサンプリングアルゴリズムが改良される(Lixin W et al., 2021)。 0.75
In this process, computational time of inversion require too long to simulate models with large-scale grids. このプロセスでは、逆転の計算時間は大規模なグリッドでモデルをシミュレートするには長すぎる。 0.68
Indeed, genetic algorithm (Shibutani T et al., 2013) suggests that computational time can be reduced. 実際、遺伝的アルゴリズム(Shibutani T et al., 2013)は計算時間を短縮できることを示している。 0.82
We believe that genetic algorithm can improve our proposed approach. 遺伝的アルゴリズムは提案手法を改良できると信じている。 0.77
This is a topic worthy of research. これは研究に値する話題です。 0.80
An important issue of our approach is that we need a lot of time to train our network, MPS simulation requires for little time. 私たちのアプローチの重要な問題は、ネットワークをトレーニングするのに多くの時間が必要であることです。
訳抜け防止モード: 私たちのアプローチの重要な問題は ネットワークのトレーニングには多くの時間が必要です。MPSシミュレーションには、少し時間が必要です。
0.75
In limited tests, GAN generates available models with a computational time per model of 0.01s on a single CPU. 限られたテストでは、GANは1つのCPU上で0.01sの計算時間で利用可能なモデルを生成する。 0.63
But GAN reaches convergence for a 180*150*120 binary channel-mud facies model on GPU parallel algorithm after 3 hours training, MPS method created pattern and simulated a model with a computational time per model of 200s on a single CPU (in Petrel software) for the same TI. しかしganは、3時間のトレーニングの後、gpu並列アルゴリズム上で180*150*120バイナリチャネルmudファシーモデルの収束に到達し、mps法はパターンを作成し、同じtiで単一のcpu(ペトレルソフトウェア)上のモデル当たり200sの計算時間を持つモデルをシミュレートした。 0.77
From the comparison between our approach and MPS, we can see that GAN has a low efficiency of modeling. 我々のアプローチとMPSを比較すると、GANはモデリングの効率が低いことが分かる。 0.60
But the trained GAN can be directly applied to generate models (Song S et al , 2021), which means that GANs have greater strength in a long term. しかし、訓練されたGANはモデルを生成するために直接適用することができる(Song S et al , 2021)。
訳抜け防止モード: しかし、訓練されたGANはモデルを生成するために直接適用することができる (Song S et al, 2021) つまり、GANは長期的にはより強力な存在である。
0.73
There is no doubt that the training time of GAN is too long to be applied in practical work. GANの訓練期間が、実際的な作業に適用するには長すぎることは疑いない。 0.69
Deep learning software and hardware may improve the computational speed, even though this way is limited. ディープラーニングソフトウェアとハードウェアは、この方法が限定されたとしても、計算速度を改善する可能性がある。 0.57
Probably establishment of trained GAN database (store all sizes of GAN after training on different sedimentary) is better way to solve the issue. トレーニングされたGANデータベース(異なる堆積物でのトレーニング後のすべてのサイズのGANを格納する)の確立は、この問題を解決するためのより良い方法であると考えられる。
訳抜け防止モード: トレーニングされたGANデータベースの確立の可能性 (異なる堆積物でのトレーニング後のGANのすべてのサイズを保存する) 問題を解くより良い方法です
0.68
Another issue is that the convergence of WGAN is not easy to get and the improvements of loss function have been done to optimize the architecture. もう一つの問題は、WGANの収束が容易に得られず、アーキテクチャを最適化するために損失関数の改善が実施されたことである。
訳抜け防止モード: もう一つの問題は WGANの収束は容易ではない そして、アーキテクチャを最適化するために損失関数の改善が行われた。
0.85
Just like WGAN-GP (Wasserstein-GAN with WGAN-GP(Wasserstein- GAN with)と同じように 0.54
英語(論文から抽出)日本語訳スコア
gradient penalty), progressive GAN, Info-GAN, recent advances show that WGAN-GP has become the best architecture of GAN. 漸進的なGAN,Info-GAN,最近の進歩は,WGAN-GPがGANの最高のアーキテクチャとなったことを示している。 0.69
WGAN-GP improves weight clipping of WGAN’s critic loss function with gradient penalty. WGAN-GPは、勾配ペナルティを伴うWGANの批判的損失関数の重量削減を改善する。 0.61
WGAN-GP is the only way to use the same default parameter and train successfully in each architecture (Gulrajani I et al , 2017). WGAN-GPは、同じデフォルトパラメータを使用し、各アーキテクチャでうまくトレーニングする唯一の方法である(Gulrajani I et al , 2017)。 0.77
5 Conclusions we proposed a seismic inverse modeling approach that can integrate patterns of geology by GAN algorithm and apply trained GAN to seismic inversion. 結論5 我々は,ganアルゴリズムを用いて地質のパターンを統合し,ganを地震インバージョンに適用できる逆解析手法を提案する。 0.69
The results show that realizations conform to seismic data and wells data in the target level, and have a spatial structure of TI. その結果, 実効化は地震データに適合し, 目標レベルのウェルズデータに適合し, TIの空間構造を持つことがわかった。 0.69
Compared to existing modeling methods, it is able to produce models with lower uncertainty and higher quality. 既存のモデリング手法と比較して、より低い不確実性とより高い品質のモデルを生成することができる。
訳抜け防止モード: 既存のモデリング手法と比較すると より低い不確実性と高い品質のモデルを作ります
0.82
This is a method to bridge the gap between geophysics and geology. これは地球物理学と地質学のギャップを埋める方法である。 0.69
Although the 3-5 hours training time and 0.5-1 days inversion time are too long to be applied immediately, the effect is still promising. 3-5時間のトレーニング時間と0.5-1日の逆転時間は、すぐに適用するには長すぎるが、効果は期待できる。 0.60
Main goals of future research will be to improve the quality of inverse modeling, decrease training time and inversion time. 今後の研究の主な目標は、逆モデリングの品質を改善し、トレーニング時間と反転時間を削減することである。
訳抜け防止モード: 今後の研究の主な目標は 逆モデリングの品質を向上させ、トレーニング時間及び反転時間を削減する。
0.77
Acknowledgment The authors are grateful to 3RG group of Yangtze University. 承認 著者らはヤンツェ大学の3RGグループに感謝している。 0.56
This work was supported by National Science Foundation of China (No.4207020041) and high-performance computer of China University of Petroleum. この研究は中国国立科学財団(No.4207020041)と中国石油大学の高性能コンピュータによって支援された。 0.80
Reference 1. Arjovsky, M., Chintala, S., Bottou, L. (2017). 参照1。 Arjovsky, M., Chintala, S., Bottou, L. (2017)。 0.78
Wasserstein GAN. ヴァッサースタイン GAN 0.38
arXiv:1406.2661v3 [stat.ML]. arXiv:1406.2661v3 [stat.ML] 0.53
2. Bosch, M., Mukerji, T., Gonzalez, EF. 2. Bosch, M., Mukerji, T., Gonzalez, EF 0.80
(2010) Seismic inversion for reservoir properties combining statistical rock physics and geostatistics: a review. (2010) 統計的岩石物理学と統計学を組み合わせた貯水池特性の地震インバージョン 0.75
Geophysics 75(5):165–176. 地質学75(5):165–176。 0.61
3. Chan, S., Elsheikh, A. H. (2017). 3. Chan, S., Elsheikh, A. H. (2017)。 0.90
Parametrization and Generation of Geological Models with Generative Adversarial Networks. 生成的逆ネットワークを用いた地質モデルのパラメトリゼーションと生成 0.73
arXiv:1708.01810v2 [stat.ML]. arXiv:1708.01810v2 [stat.ML] 0.53
4. Doyen, P. M. (2007). 4. Doyen, P. M. (2007)。 0.88
Seismic Reservoir Characterization: An Earth Modelling Perspective. 地震探査用貯留層の特徴:地球モデリングの展望 0.70
EAGE Publications, Housten. EAGE Publications, Housten 0.61
5. Dubrule, O. 5. Dubrule, O。 0.83
(2003). Geostatistics for Seismic Data Integration in Earth Models. (2003). 地球モデルにおける地震データ統合のための地球統計学 0.74
Society of Exploration Geophysicists European Association of Geoscientists & Engineers. ヨーロッパ地球物理学会(European Association of Geoscientists and Engineers)の略。 0.62
6. Eidsvik, J., Avseth, P., Omre, H., Mukerji T., Mavko, G. (2004) Stochastic reservoir characterization using prestack seismic data. 6. Eidsvik, J., Avseth, P., Omre, H., Mukerji T., Mavko, G. (2004) 地震前データを用いた確率的貯留層解析 0.84
Geophysics 69:978–993. 69:978-993。 0.43
7. Glorot, X., Bordes, A., & Bengio, Y. . 7. Glorot, X., Bordes, A., & Bengio, Y。 0.83
(2011). Deep Sparse Rectifier Neural Networks. (2011). ディープスパース整流器ニューラルネットワーク。 0.76
Journal of Machine Learning Research (Vol.15, pp.315-323). Journal of Machine Learning Research (Vol.15, pp.315-323)。 0.72
英語(論文から抽出)日本語訳スコア
8. Gonzalez, E. F., Mukerji, T., & Mavko, G. (2008). 8. Gonzalez, E. F., Mukerji, T., & Mavko, G. (2008)。 0.89
Seismic inversion combining rock physics and multiple-point geostatistics. 岩石物理と多点測地学を組み合わせた地震インバージョン 0.65
Geophysics 73(1):R11–R21 9. 73(1):R11-R21 9。 0.63
Goodfellow, I. J., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., Courvile, A., & Bengio, Y. Goodfellow, I. J., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., Courvile, A., & Bengio, Y。 0.96
(2014). Generative Adversarial Nets. (2014). 敵ネットを生成。 0.70
International Conference on Neural Information Processing Systems. ニューラル情報処理システムに関する国際会議 0.69
MIT Press. 10. MIT出版。 10. 0.73
Gulrajani, I., Ahmed, F., Arjovsky, M., Dumoulin, V., & Courville, A. Gulrajani, I., Ahmed, F., Arjovsky, M., Dumoulin, V., & Courville, A. 0.85
(2017). Improved training of wasserstein gans. (2017). Wasserstein gansの訓練の改善 0.79
Advances in Neural Information Processing Systems. ニューラル情報処理システムの進歩 0.59
5767-5777. arXiv:1704.00028v3 [cs.LG] 25 Dec 2017. 5767-5777. arXiv:1704.00028v3 [cs.LG] 25 December 2017 0.52
11. Haas, A., Dubrule, O. 11. Haas, A., Dubrule, O。 0.84
(1994). Geostatistical inversion: A sequential method for stochastic reservoir modeling constrained by seismic data. (1994). 地盤統計インバージョン:地震データに制約された確率的貯水池モデリングの逐次的手法 0.75
First Break,13(12):61-569. 13(12):61-569。 0.69
12. Jeong, C., Mukerji, T., & Mariethoz, G. (2017). 12. Jeong, C., Mukerji, T., & Mariethoz, G. (2017)。 0.87
A fast approximation for seismic inverse modeling: adaptive spatial resampling. 地震波逆モデリングのための高速近似:適応的空間再サンプリング 0.82
Mathematical Geosciences. 13. 数学的地球科学。 13. 0.73
Laloy, E., Herault, R., Jacques, D. & Linde, N. (2018). Laloy, E., Herault, R., Jacques, D. & Linde, N. (2018)。 0.92
Training-image based geostatistical inversion using a spatial generative adversarial neural network. 空間生成対向ニューラルネットワークを用いた訓練画像に基づく地理統計インバージョン 0.75
Water Resources Research,54(1):38140 6. 水資源研究54(1):381406。 0.88
14. Laloy, E., Herault, R., Lee, J., Jacques, D. & Linde, N. (2017). 14. Laloy, E., Herault, R., Lee, J., Jacques, D. & Linde, N. (2017)。 0.88
Inversion using a new lowdimensional representation of complex binary geological media based on a deep neural network. 深層ニューラルネットワークに基づく複雑な二元地質媒体の新たな低次元表現を用いたインバージョン 0.79
Advances in Water Resources,1(10):387–405. 水資源の進歩(1(10):387–405。 0.67
15. Laloy, E., Vrugt, J. 15. Laloy, E., Vrugt, J。 0.84
A. (2012). A。 (2012). 0.79
High-dimensional posterior exploration of hydrologic models using multiple-try DREAM(ZS) and high-performance computing. マルチトライドリーム(zs)と高性能計算による水文モデルの高次元後方探査 0.76
Water Resources Research, 50(3):182205. 水資源研究 50(3):182205。 0.77
16. Li FM, Ji ZF, Zhao GL, Wu CJ & Li ZM. 16. Li FM, Ji ZF, Zhao GL, Wu CJ & Li ZM 0.81
2007. Methodology and application of stochastic seismic inversion: A case from P Oilfield, M Basin, Sudan. 2007. 確率的地震インバージョン法と応用:スーダン・M盆地P油田を事例として 0.73
Petroleum exploration and development,34(4):45 1455. 石油探査開発34(4):451455。 0.78
17. Lixin, W., Yanshu ,Y., & Hui, W., 2021, A method of reconstructing 3D model from 2D geological cross-section based on self-adaptive spatial sampling: A case study of Cretaceous McMurray reservoirs in a block of Canada, Petroleum Exploration and Development,48(2):40 7-420, 18. 17. lixin, w., yanshu, y., & hui, 2021, a method of 3d model from 2d geological cross-section based on self-adaptive spatial sampling: a case study of cretaceous mcmurray reservoirs in a block of canada, petroleum exploration and development,48(2):40 7-420, 18. (英語) 0.88
Lochbuhler, T., Vrugt, J. Lochbuhler, T., Vrugt, J。 0.82
A., Sadegh, M., & Linde, N. (2015). A., Sadegh, M., & Linde, N. (2015)。 0.87
Summary statistics from training images as prior information in probabilistic inversion. 確率逆解析における事前情報としての訓練画像からの要約統計 0.67
Geophysical Journal International, 2(1):157171. Geophysical Journal International, 2(1):157171(英語) 0.81
19. Mariethoz, G., & Caers, J. 19. Mariethoz, G., & Caers, J。 0.84
(2014). Multiple-Point Geostatistics: Stochastic Modeling with Training Images. (2014). 多点ジオ統計: 訓練画像を用いた確率的モデリング 0.76
Wiley-Blackwell, United States. ワイリー・ブラックウェル - アメリカの政治家。 0.38
20. Mariethoz, G., Renard, P., & Caere, J. 20. Mariethoz, G., Renard, P., & Caere, J. 0.85
(2010). Bayesian inverse problem and optimization with (2010). ベイズ逆問題と最適化 0.75
英語(論文から抽出)日本語訳スコア
iterative spatial resampling. 反復的な空間再サンプリング 0.60
Water Resources Research, 46(11), 2387-2392. 水資源研究、46(11)、2387-2392。 0.81
21. Mosser, L., Dubrule, O., & Blunt, M. J. 21. Mosser, L., Dubrule, O., & Blunt, M. J。 0.87
(2017). Reconstruction of three-dimensional porous media using generative adversarial neural networks. (2017). 生成対向ニューラルネットワークを用いた三次元多孔質媒体の再構成 0.81
Physical Review E,9(6):43–49. E,9(6):43-49頁。 0.54
22. Mosser, L., Dubrule, O., & Blunt, M. J. 22. Mosser, L., Dubrule, O., & Blunt, M. J。 0.87
(2019). Stochastic seismic waveform inversion using generative adversarial networks as a geological prior. (2019). 生成型逆ネットワークを用いた確率的地震波形インバージョン 0.72
Mathematical geosciences (1). 数学的地球科学(1) 0.78
23. Mukerji, T., Mavko, G., & Rio, P. (1997). 23. Mukerji, T., Mavko, G., & Rio, P. (1997)。 0.85
Scales of reservoir heterogeneities and impact of seismic resolution on geostatistical integration. 貯留層の不均質性尺度と地震分解能の地球統計統合への影響 0.67
Math Geol. 29(7):933–950 24. Math Geol 29(7):933–950 24. 0.71
Pyrcz, M. J., Mchargue, T., Clark J., Sullivan, M., & Strebelle, S., (2012). Pyrcz, M. J., Mchargue, T., Clark J., Sullivan, M., & Strebelle, S. (2012)。 0.86
Event-Based Geostatistical Modeling: Description and Applications. イベントベースジオ統計モデリング: 説明と応用。 0.78
Oslo: Springer,27-38. Oslo: Springer,27-38。 0.63
25. Shibutani, T., Sambridge, M., & Kennett, B. 25. Shibutani, T., Sambridge, M., & Kennett, B 0.81
(2013). Genetic algorithm inversion for receiver functions with application to crust and uppermost mantle structure beneath eastern Australia[J]. (2013). オーストラリア東部の地殻および最上部マントル構造に対する受信関数の遺伝的アルゴリズム逆転法[J] 0.77
Geophysical Research Letters,23(14):1829- 1832. 物理研究文書(23(14):1829-1832) 0.59
26. Song, S., Mukerji, T., & Hou, J. 26. Song, S., Mukerji, T., & Hou, J。 0.84
(2021). GANsim: conditional facies simulation using an improved progressive growing of generative adversarial networks (GANs). (2021). GANsim: GAN(Generative Adversarial Network)の改良による条件相シミュレーション。 0.72
Mathematical Geosciences. 27. 数学的地球科学。 27. 0.73
Song, S., Mukerji, T., & Hou, J. Song, S., Mukerji, T., & Hou, J。 0.82
(2021). Bridging the gap between geophysics and geology with generative adversarial networks. (2021). 地質学と地質学のギャップを生成的対向ネットワークで埋める。 0.78
IEEE Transactions on Geoscience and Remote Sensing, PP (99), 111. IEEE Transactions on Geoscience and Remote Sensing, PP (99), 111。 0.74
28. Strebelle, S. (2000). 28. Strebelle, S. (2000)。 0.87
Sequential simulation drawing structures from training images. 訓練画像からの逐次シミュレーション描画構造 0.74
Stanford: Stanford University. スタンフォード大学 - スタンフォード大学。 0.68
29. Strebelle, S. (2002). 29. Strebelle, S. (2002)。 0.87
Conditional Simulation of Complex Geological Structures Using MultiplePoint Statistics. 多点統計を用いた複雑な地質構造の条件シミュレーション 0.87
Mathematical Geology, 34(1):1-21. 数理地質、34(1):1-21。 0.60
30. Zhang, T. F., Tilke, P., Dupont, E., Zhu, L. C., Liang, L., & Bailey, W. (2019). 30. Zhang, T. F., Tilke, P., Dupont, E., Zhu, L. C., Liang, L., & Bailey, W. (2019)。 0.88
Generating geologically realistic 3d reservoir facies models using deep learning of sedimentary architecture with generative adversarial networks. 生成逆ネットワークを用いた堆積構造深層学習による地質学的に現実的な3d貯留層モデルの生成 0.70
Petroleum Science. 31. Zhu, L., & Zhang, T. (2019). 石油科学。 31. Zhu, L., & Zhang, T. (2019)。 0.82
Generating geological facies models with fidelity to diversi ty and statistics of training images using improved generative adversarial networks. 改良された生成逆数ネットワークを用いた地質相モデルの作成とトレーニング画像の多様性と統計 0.77
arXiv:190 9.10652v1[stat.ML]. arXiv:190 9.10652v1[stat.ML] 0.57
                                             ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。