論文の概要: Efficient selective attention LSTM for well log curve synthesis
- arxiv url: http://arxiv.org/abs/2307.10253v3
- Date: Wed, 3 Jan 2024 04:51:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-04 16:58:08.048361
- Title: Efficient selective attention LSTM for well log curve synthesis
- Title(参考訳): ウェルログ曲線合成のための効率的な選択的注意LSTM
- Authors: Yuankai Zhou, Huanyu Li
- Abstract要約: 本稿では,既存のデータを用いて不足データの予測を行う機械学習手法を提案する。
提案手法は,従来のLong Short-Term Memory(LSTM)ニューラルネットワークに自己注意機構を組み込むことで構築する。
実験により,提案手法は従来の曲線合成法と比較して精度が高いことを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Non-core drilling has gradually become the primary exploration method in
geological exploration engineering, and well logging curves have increasingly
gained importance as the main carriers of geological information. However,
factors such as geological environment, logging equipment, borehole quality,
and unexpected events can all impact the quality of well logging curves.
Previous methods of re-logging or manual corrections have been associated with
high costs and low efficiency. This paper proposes a machine learning method
that utilizes existing data to predict missing data, and its effectiveness and
feasibility have been validated through field experiments. The proposed method
builds on the traditional Long Short-Term Memory (LSTM) neural network by
incorporating a self-attention mechanism to analyze the sequential dependencies
of the data. It selects the dominant computational results in the LSTM,
reducing the computational complexity from O(n^2) to O(nlogn) and improving
model efficiency. Experimental results demonstrate that the proposed method
achieves higher accuracy compared to traditional curve synthesis methods based
on Fully Connected Neural Networks (FCNN) and vanilla LSTM. This accurate,
efficient, and cost-effective prediction method holds a practical value in
engineering applications.
- Abstract(参考訳): 非コア掘削は徐々に地質探査工学の主要な探査方法となり、地質情報の主要担体として伐採曲線の重要性が高まっている。
しかし, 地質環境, 伐採装置, ボーリングホール品質, 予期せぬ事象などの要因は, いずれも, 坑井伐採曲線の質に影響を与える可能性がある。
以前の再ログインや手作業による修正の方法は、高いコストと低い効率に関係している。
本稿では,既存のデータを用いて欠落データを予測する機械学習手法を提案し,その有効性と実現可能性についてフィールド実験により検証した。
提案手法は,従来のLong Short-Term Memory (LSTM) ニューラルネットワーク上に,データのシーケンシャルな依存関係を解析するための自己アテンション機構を組み込んだものである。
LSTMにおいて支配的な計算結果を選択し、計算複雑性をO(n^2)からO(nlogn)に減らし、モデル効率を向上させる。
実験の結果,完全結合型ニューラルネットワーク (fcnn) とバニラlstmを用いた従来の曲線合成法と比較して高い精度が得られた。
この正確で効率的でコスト効率の良い予測方法は、工学的応用において実用的な価値を持っている。
関連論文リスト
- Enabling Smart Retrofitting and Performance Anomaly Detection for a
Sensorized Vessel: A Maritime Industry Experience [0.21485350418225244]
本研究では,解釈可能な機械学習モデルを用いたディープラーニング駆動型異常検出システムを提案する。
我々は,LSTM(Long Short-Term Memory)オートエンコーダを用いた,ループ内非教師なしのプロセスを活用する。
TUCANAから取得した実データを用いて実験によりシステム評価を行い,その過程で得られたLSTMモデルを用いて80%以上の精度と90%のリコールを達成した。
論文 参考訳(メタデータ) (2023-12-30T01:31:54Z) - Robust Neural Pruning with Gradient Sampling Optimization for Residual
Neural Networks [0.0]
本研究は, 採粒過程におけるStochGradAdamと同様の勾配サンプリング技術の適用に焦点を当てた。
実験により, 従来の最適化手法と比較して, 勾配サンプリング法により最適化されたモデルの方が, 刈り込み時の精度を保つのに有効であることが判明した。
計算資源の制約のある環境においても,精度を損なうことなく効率の良いニューラルネットワークを構築するための有望な方向性が示唆された。
論文 参考訳(メタデータ) (2023-12-26T12:19:22Z) - Low-Frequency Load Identification using CNN-BiLSTM Attention Mechanism [0.0]
非侵入負荷モニタリング(Non-Inrusive Load Monitoring, NILM)は、効率的な電力消費管理のための確立された技術である。
本稿では,畳み込みニューラルネットワーク(CNN)と双方向長短期記憶(BILSTM)を組み合わせたハイブリッド学習手法を提案する。
CNN-BILSTMモデルは、時間的(時間的)と空間的(位置的)の両方の特徴を抽出し、アプライアンスレベルでのエネルギー消費パターンを正確に識別することができる。
論文 参考訳(メタデータ) (2023-11-14T21:02:27Z) - Transfer learning for atomistic simulations using GNNs and kernel mean
embeddings [24.560340485988128]
本稿では, グラフニューラルネットワーク(GNN)を用いて, カーネル平均埋め込みとともに, 化学環境を表現するトランスファー学習アルゴリズムを提案する。
我々は,複雑性を増大させる一連の現実的なデータセットに対して,我々のアプローチを検証し,優れた一般化と伝達可能性性能を示す。
論文 参考訳(メタデータ) (2023-06-02T14:58:16Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - Joint Edge-Model Sparse Learning is Provably Efficient for Graph Neural
Networks [89.28881869440433]
本稿では,グラフニューラルネットワーク(GNN)における結合エッジモデルスパース学習の理論的特徴について述べる。
解析学的には、重要なノードをサンプリングし、最小のマグニチュードでプルーニングニューロンをサンプリングすることで、サンプルの複雑さを減らし、テスト精度を損なうことなく収束を改善することができる。
論文 参考訳(メタデータ) (2023-02-06T16:54:20Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - CAFE: Learning to Condense Dataset by Aligning Features [72.99394941348757]
本稿ではCAFE(Aligning features)によるCondenseデータセットの新しいスキームを提案する。
このアプローチの核心は、さまざまなスケールにわたる実データと合成データから機能を整合させる効果的な戦略です。
提案したCAFEを様々なデータセットで検証し,概ね最先端技術であることを示す。
論文 参考訳(メタデータ) (2022-03-03T05:58:49Z) - Learning Neural Causal Models with Active Interventions [83.44636110899742]
本稿では,データ生成プロセスの根底にある因果構造を素早く識別する能動的介入ターゲット機構を提案する。
本手法は,ランダムな介入ターゲティングと比較して,要求される対話回数を大幅に削減する。
シミュレーションデータから実世界のデータまで,複数のベンチマークにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-06T13:10:37Z) - Drill the Cork of Information Bottleneck by Inputting the Most Important
Data [28.32769151293851]
ディープニューラルネットワークを効率的にトレーニングする方法はまだ解決されていない。
情報ボトルネック(IB)理論は、最適化過程は初期適合相と次の圧縮相からなると主張している。
IB理論で表される嵌合相は、典型的サンプリングが適切に適用された場合、高い信号対雑音比で促進されることを示す。
論文 参考訳(メタデータ) (2021-05-15T09:20:36Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。