論文の概要: Semi-supervised Impedance Inversion by Bayesian Neural Network Based on
2-d CNN Pre-training
- arxiv url: http://arxiv.org/abs/2111.10596v1
- Date: Sat, 20 Nov 2021 14:12:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-25 12:26:46.023586
- Title: Semi-supervised Impedance Inversion by Bayesian Neural Network Based on
2-d CNN Pre-training
- Title(参考訳): 2次元CNN事前学習に基づくベイズニューラルネットワークによる半教師付きインピーダンスインバージョン
- Authors: Muyang Ge, Wenlong Wang and Wangxiangming Zheng
- Abstract要約: 我々は2つの側面から半教師付き学習を改善する。
まず、ディープラーニング構造における1次元畳み込みニューラルネットワーク層を2次元CNN層と2次元マックスプール層に置き換えることで、予測精度を向上させる。
第二に、ベイズ推論フレームワークにネットワークを埋め込むことで予測の不確実性を推定することもできる。
- 参考スコア(独自算出の注目度): 0.966840768820136
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Seismic impedance inversion can be performed with a semi-supervised learning
algorithm, which only needs a few logs as labels and is less likely to get
overfitted. However, classical semi-supervised learning algorithm usually leads
to artifacts on the predicted impedance image. In this artical, we improve the
semi-supervised learning from two aspects. First, by replacing 1-d
convolutional neural network (CNN) layers in deep learning structure with 2-d
CNN layers and 2-d maxpooling layers, the prediction accuracy is improved.
Second, prediction uncertainty can also be estimated by embedding the network
into a Bayesian inference framework. Local reparameterization trick is used
during forward propagation of the network to reduce sampling cost. Tests with
Marmousi2 model and SEAM model validate the feasibility of the proposed
strategy.
- Abstract(参考訳): 地震インピーダンスインバージョンは、ラベルとしてログを数個しか必要とせず、過度に適合しない半教師付き学習アルゴリズムで実行することができる。
しかし、古典的な半教師付き学習アルゴリズムは通常、予測インピーダンス画像上のアーチファクトにつながる。
本稿では2つの側面から半教師付き学習を改善する。
まず、深層学習構造における1次元畳み込みニューラルネットワーク(cnn)層を2次元cnn層と2次元maxpooling層に置き換えることで、予測精度を向上させる。
第二に、ベイズ推論フレームワークにネットワークを埋め込むことで予測の不確実性を推定することもできる。
サンプリングコストを削減するために、ネットワークの前方伝播中に局所的なパラメータ化トリックが使用される。
Marmousi2モデルとSEAMモデルによるテストは、提案された戦略の実現可能性を検証する。
関連論文リスト
- Scalable Bayesian Inference in the Era of Deep Learning: From Gaussian Processes to Deep Neural Networks [0.5827521884806072]
大規模なデータセットでトレーニングされた大規模なニューラルネットワークは、マシンラーニングの主要なパラダイムになっています。
この論文は、モデル不確実性を持つニューラルネットワークを装備するためのスケーラブルな手法を開発する。
論文 参考訳(メタデータ) (2024-04-29T23:38:58Z) - Benign Overfitting in Two-Layer ReLU Convolutional Neural Networks for
XOR Data [24.86314525762012]
勾配降下法により訓練されたReLU CNNがベイズ最適精度付近で実現できることを示す。
以上の結果から,CNNは高い相関性のある特徴が存在する場合でも,効率よくXOR問題を学習する能力を有することが明らかとなった。
論文 参考訳(メタデータ) (2023-10-03T11:31:37Z) - NODDLE: Node2vec based deep learning model for link prediction [0.0]
我々はNODDLE(NOde2vec anD Deep Learning mEthodの統合)を提案する。
実験結果から, この手法は, 従来のソーシャル・ネットワーク・データセットの手法よりも優れた結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-05-25T18:43:52Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - A Simple Approach to Improve Single-Model Deep Uncertainty via
Distance-Awareness [33.09831377640498]
本研究では,1つの決定論的表現に基づく1つのネットワークの不確実性向上手法について検討する。
本稿では,現代のDNNにおける距離認識能力を向上させる簡易な手法として,スペクトル正規化ニューラルガウス過程(SNGP)を提案する。
ビジョンと言語理解のベンチマークスイートでは、SNGPは予測、キャリブレーション、ドメイン外検出において、他の単一モデルアプローチよりも優れている。
論文 参考訳(メタデータ) (2022-05-01T05:46:13Z) - Spatial-Temporal-Fusion BNN: Variational Bayesian Feature Layer [77.78479877473899]
我々は,BNNを大規模モデルに効率的にスケールするための時空間BNNを設計する。
バニラBNNと比較して,本手法はトレーニング時間とパラメータ数を著しく削減し,BNNのスケールアップに有効である。
論文 参考訳(メタデータ) (2021-12-12T17:13:14Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - Learning Neural Network Subspaces [74.44457651546728]
近年の観測は,ニューラルネットワーク最適化の展望の理解を深めている。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
論文 参考訳(メタデータ) (2021-02-20T23:26:58Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - Local Critic Training for Model-Parallel Learning of Deep Neural
Networks [94.69202357137452]
そこで我々は,局所的批判訓練と呼ばれる新しいモデル並列学習手法を提案する。
提案手法は,畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)の両方において,階層群の更新プロセスの分離に成功したことを示す。
また,提案手法によりトレーニングされたネットワークを構造最適化に利用できることを示す。
論文 参考訳(メタデータ) (2021-02-03T09:30:45Z) - EagerNet: Early Predictions of Neural Networks for Computationally
Efficient Intrusion Detection [2.223733768286313]
最小限のリソースでネットワーク攻撃を検出するアーキテクチャを提案する。
アーキテクチャはバイナリまたはマルチクラスの分類問題に対処でき、ネットワークの精度を予測速度と交換できる。
論文 参考訳(メタデータ) (2020-07-27T11:31:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。