論文の概要: Robust representations of oil wells' intervals via sparse attention
mechanism
- arxiv url: http://arxiv.org/abs/2212.14246v3
- Date: Mon, 6 Nov 2023 10:04:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-08 01:32:13.340315
- Title: Robust representations of oil wells' intervals via sparse attention
mechanism
- Title(参考訳): 弱注意機構による油井間隔のロバスト表現
- Authors: Alina Ermilova, Nikita Baramiia, Valerii Kornilov, Sergey Petrakov,
Alexey Zaytsev
- Abstract要約: 正規化変換器(Reguformers)と呼ばれる効率的な変換器のクラスを導入する。
私たちの実験の焦点は、石油とガスのデータ、すなわちウェルログにあります。
このような問題に対する我々のモデルを評価するために、20以上の井戸からなるウェルログからなる産業規模のオープンデータセットで作業する。
- 参考スコア(独自算出の注目度): 2.604557228169423
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Transformer-based neural network architectures achieve state-of-the-art
results in different domains, from natural language processing (NLP) to
computer vision (CV). The key idea of Transformers, the attention mechanism,
has already led to significant breakthroughs in many areas. The attention has
found their implementation for time series data as well. However, due to the
quadratic complexity of the attention calculation regarding input sequence
length, the application of Transformers is limited by high resource demands.
Moreover, their modifications for industrial time series need to be robust to
missing or noised values, which complicates the expansion of the horizon of
their application. To cope with these issues, we introduce the class of
efficient Transformers named Regularized Transformers (Reguformers). We
implement the regularization technique inspired by the dropout ideas to improve
robustness and reduce computational expenses. The focus in our experiments is
on oil&gas data, namely, well logs, a prominent example of multivariate time
series. The goal is to solve the problems of similarity and representation
learning for them. To evaluate our models for such problems, we work with an
industry-scale open dataset consisting of well logs of more than 20 wells. The
experiments show that all variations of Reguformers outperform the previously
developed RNNs, classical Transformer model, and robust modifications of it
like Informer and Performer in terms of well-intervals' classification and the
quality of the obtained well-intervals' representations. Moreover, the
sustainability to missing and incorrect data in our models exceeds that of
others by a significant margin. The best result that the Reguformer achieves on
well-interval similarity task is the mean PR~AUC score equal to 0.983, which is
comparable to the classical Transformer and outperforms the previous models.
- Abstract(参考訳): トランスフォーマーベースのニューラルネットワークアーキテクチャは、自然言語処理(NLP)からコンピュータビジョン(CV)まで、さまざまな領域で最先端の結果を達成する。
トランスフォーマーの鍵となるアイデアであるアテンション機構は、多くの分野ですでに大きなブレークスルーをもたらしている。
時系列データの実装も注目されている。
しかし,入力シーケンス長に対する注意計算の二次的複雑さから,資源需要の高いトランスフォーマの応用は制限される。
さらに、産業時系列に対する修正は、その適用の地平線の拡大を複雑にする欠落値やノイズ値に対して堅牢である必要がある。
これらの問題に対処するため、正規化変圧器(reguformers)と呼ばれる効率的な変圧器のクラスを導入する。
我々は,ロバスト性の向上と計算コストの削減を目的として,ドロップアウトアイデアに触発された正規化手法を実装した。
私たちの実験の焦点は、石油とガスのデータ、すなわち、多変量時系列の顕著な例であるwell logsにあります。
目標は、類似性と表現学習の問題を解決することである。
このような問題に対する我々のモデルを評価するために、20以上の井戸からなるウェルログからなる産業規模のオープンデータセットで作業する。
実験により、Reguformerのすべてのバリエーションは、以前開発されたRNN、古典的トランスフォーマーモデル、そして、InformerやPerformerのような頑健な修正を、良インターバルの分類と得られた良インターバルの表現の品質の観点から上回っていることが示された。
さらに,モデルの欠落や不正確なデータに対する持続可能性も,他のデータよりも大きなマージンを越えている。
Reguformerが十分にインターバルな類似性タスクで達成した最良の結果は、PR~AUCスコアが0.983に等しいことである。
関連論文リスト
- PRformer: Pyramidal Recurrent Transformer for Multivariate Time Series Forecasting [82.03373838627606]
Transformerアーキテクチャにおける自己保持機構は、時系列予測において時間順序を符号化するために位置埋め込みを必要とする。
この位置埋め込みへの依存は、トランスフォーマーの時間的シーケンスを効果的に表現する能力を制限している、と我々は主張する。
本稿では,Prepreを標準的なTransformerエンコーダと統合し,様々な実世界のデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2024-08-20T01:56:07Z) - Rough Transformers: Lightweight Continuous-Time Sequence Modelling with Path Signatures [46.58170057001437]
本稿では,入力シーケンスの連続時間表現で動作するトランスフォーマーモデルのバリエーションであるRough Transformerを紹介する。
様々な時系列関連タスクにおいて、Rough Transformersはベニラアテンションよりも常に優れています。
論文 参考訳(メタデータ) (2024-05-31T14:00:44Z) - Rough Transformers for Continuous and Efficient Time-Series Modelling [46.58170057001437]
実世界の医療環境における時系列データは、典型的には長距離依存を示し、一様でない間隔で観察される。
本稿では,入力シーケンスの連続時間表現で動作するトランスフォーマーモデルのバリエーションであるRough Transformerを紹介する。
Rough Transformersは、Neural ODEベースのモデルの利点を得ながら、バニラアテンションを一貫して上回ります。
論文 参考訳(メタデータ) (2024-03-15T13:29:45Z) - iTransformer: Inverted Transformers Are Effective for Time Series Forecasting [62.40166958002558]
iTransformerを提案する。これは、逆次元に注意とフィードフォワードのネットワークを単純に適用する。
iTransformerモデルは、挑戦的な現実世界のデータセットの最先端を実現する。
論文 参考訳(メタデータ) (2023-10-10T13:44:09Z) - Are Transformers Effective for Time Series Forecasting? [13.268196448051308]
近年、時系列予測(TSF)タスクのためのTransformerベースのソリューションが急増している。
本研究は,Transformer-based techniqueが長期時系列予測に適した解であるかどうかを考察する。
変換器をベースとした解の長期予測精度が比較的高いことは,変換器アーキテクチャの時間的関係抽出能力とはほとんど関係がないことがわかった。
論文 参考訳(メタデータ) (2022-05-26T17:17:08Z) - Causal Transformer for Estimating Counterfactual Outcomes [18.640006398066188]
多くのアプリケーションでは、観測データから時間とともに反現実的な結果を予測することが重要となる。
我々は、時間とともに反現実的な結果を予測するための新しい因果変換器を開発した。
私たちのモデルは、時間によって異なる共同設立者間の複雑な長距離依存関係をキャプチャするために特別に設計されています。
論文 参考訳(メタデータ) (2022-04-14T22:40:09Z) - Transformers predicting the future. Applying attention in next-frame and
time series forecasting [0.0]
繰り返しニューラルネットワークは、最近まで、シーケンス内のタイムリーな依存関係をキャプチャする最良の方法の1つでした。
トランスフォーマーの導入により、RNNのない注意機構しか持たないアーキテクチャが、様々なシーケンス処理タスクの結果を改善することが証明された。
論文 参考訳(メタデータ) (2021-08-18T16:17:29Z) - Transformers Solve the Limited Receptive Field for Monocular Depth
Prediction [82.90445525977904]
畳み込みニューラルネットワークとトランスの両方の恩恵を受けるアーキテクチャであるTransDepthを提案します。
連続ラベルを含む画素単位での予測問題にトランスフォーマーを適用する最初の論文である。
論文 参考訳(メタデータ) (2021-03-22T18:00:13Z) - Long Range Arena: A Benchmark for Efficient Transformers [115.1654897514089]
ロングレンジアリーナベンチマーク(Long-rangearena benchmark)は、1Kドルから16Kドルまでの一連のタスクからなるスイートである。
我々は,新たに提案したベンチマークスイートを用いて,よく確立された10種類の長距離トランスフォーマーモデルを体系的に評価した。
論文 参考訳(メタデータ) (2020-11-08T15:53:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。