論文の概要: Rail Crack Propagation Forecasting Using Multi-horizons RNNs
- arxiv url: http://arxiv.org/abs/2309.01569v1
- Date: Mon, 4 Sep 2023 12:44:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 18:41:46.933452
- Title: Rail Crack Propagation Forecasting Using Multi-horizons RNNs
- Title(参考訳): マルチホリゾンrnnを用いたレールき裂進展予測
- Authors: Sara Yasmine Ouerk, Olivier Vo Van, Mouadh Yagoubi
- Abstract要約: レールひび割れ進展の予測は, 材料・構造物の維持・安全性評価において重要な役割を担っている。
伝統的な手法は、パリ法のような物理モデルや経験方程式に依存している。
近年,機械学習技術,特にリカレントニューラルネットワーク(RNN)が時系列予測の有望な手法として登場している。
- 参考スコア(独自算出の注目度): 0.46040036610482665
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The prediction of rail crack length propagation plays a crucial role in the
maintenance and safety assessment of materials and structures. Traditional
methods rely on physical models and empirical equations such as Paris law,
which often have limitations in capturing the complex nature of crack growth.
In recent years, machine learning techniques, particularly Recurrent Neural
Networks (RNNs), have emerged as promising methods for time series forecasting.
They allow to model time series data, and to incorporate exogenous variables
into the model. The proposed approach involves collecting real data on the
French rail network that includes historical crack length measurements, along
with relevant exogenous factors that may influence crack growth. First, a
pre-processing phase was performed to prepare a consistent data set for
learning. Then, a suitable Bayesian multi-horizons recurrent architecture was
designed to model the crack propagation phenomenon. Obtained results show that
the Multi-horizons model outperforms state-of-the-art models such as LSTM and
GRU.
- Abstract(参考訳): レールき裂進展の予測は材料・構造物の維持・安全性評価において重要な役割を担っている。
伝統的な手法は、パリ法のような物理モデルや経験方程式に依存しており、しばしば亀裂成長の複雑な性質を捉えている。
近年,機械学習技術,特にリカレントニューラルネットワーク(RNN)が時系列予測の有望な手法として登場している。
時系列データをモデル化し、モデルに外因性変数を組み込むことができる。
提案手法は, ヒストリクラック長測定を含むフランス鉄道網上の実データと, ひび割れ成長に影響を与える可能性のある外因性因子の収集を含む。
まず、学習のための一貫したデータセットを作成するために、前処理フェーズを実施した。
そして, 亀裂伝播現象をモデル化するために, ベイズ型マルチホライズンリカレントアーキテクチャを設計した。
その結果,マルチホライズンズモデルはLSTMやGRUといった最先端モデルよりも優れていた。
関連論文リスト
- Generative Pretrained Hierarchical Transformer for Time Series
Forecasting [4.012001172505646]
本稿ではGPHTと呼ばれる予測のための新しい生成事前学習型階層型トランスフォーマアーキテクチャを提案する。
一方、我々は、様々なデータシナリオから様々なデータセットから構成される、モデルを事前訓練するための混合データセットの構築を提唱する。
一方、GPHTはチャネルに依存しない仮定の下で自己回帰予測手法を採用し、出力系列における時間的依存関係を効果的にモデル化する。
論文 参考訳(メタデータ) (2024-02-26T11:54:54Z) - Attractor Memory for Long-Term Time Series Forecasting: A Chaos
Perspective [66.79255404792849]
本稿では,カオス理論を長期時系列予測(LTSF)タスクに導入する。
我々のモデルである textbftextitAttraos はカオス理論をLTSFに組み込み、未知の高次元カオス力学系からの観測として実世界の時系列を知覚する。
歴史的力学構造を記憶し、周波数を拡大した局所進化戦略によって予測する。
論文 参考訳(メタデータ) (2024-02-18T05:35:01Z) - On the Resurgence of Recurrent Models for Long Sequences -- Survey and
Research Opportunities in the Transformer Era [59.279784235147254]
この調査は、Recurrenceの統一の傘の下に構築されたこれらのトレンドの概要を提供することを目的としている。
長いシーケンスを処理するという考え方を捨てる際に顕著になる新しい研究機会を強調している。
論文 参考訳(メタデータ) (2024-02-12T23:55:55Z) - The Bigger the Better? Rethinking the Effective Model Scale in Long-term
Time Series Forecasting [57.00348861248051]
時系列予測は時系列分析において重要なフロンティアである。
階層的な分解で拡張された軽量トランスフォーマーであるHDformerを紹介する。
HDformerは既存のLTSFモデルよりも優れており、パラメータは99%以上少ない。
論文 参考訳(メタデータ) (2024-01-22T13:15:40Z) - The Capacity and Robustness Trade-off: Revisiting the Channel
Independent Strategy for Multivariate Time Series Forecasting [50.48888534815361]
本稿では、Channel Dependent(CD)戦略でトレーニングされたモデルが、Channel Dependent(CD)戦略でトレーニングされたモデルよりも優れていることを示す。
以上の結果から,CD手法は高いキャパシティを持つが,分散ドリフト時系列を正確に予測する堅牢性に欠けることがわかった。
本稿では,CI戦略を超越した正規化(PRReg)による予測残差法(Predict Residuals with Regularization, PRReg)を提案する。
論文 参考訳(メタデータ) (2023-04-11T13:15:33Z) - Contextually Enhanced ES-dRNN with Dynamic Attention for Short-Term Load
Forecasting [1.1602089225841632]
提案手法は,コンテキストトラックとメイントラックという,同時に訓練された2つのトラックから構成される。
RNNアーキテクチャは、階層的な拡張を積み重ねた複数の繰り返し層で構成され、最近提案された注意的再帰細胞を備えている。
このモデルは点予測と予測間隔の両方を生成する。
論文 参考訳(メタデータ) (2022-12-18T07:42:48Z) - An Attention Free Long Short-Term Memory for Time Series Forecasting [0.0]
本研究では,より効率的なフレームワークであるアテンションフリー機構を用いた時系列予測に着目し,時系列予測のための新しいアーキテクチャを提案する。
本研究では,無注意LSTM層を用いて,条件分散予測のための線形モデルを克服するアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-09-20T08:23:49Z) - Time Series Forecasting with Ensembled Stochastic Differential Equations
Driven by L\'evy Noise [2.3076895420652965]
我々は、ニューラルネットワークを備えたSDEの集合を用いて、ノイズのある時系列の長期的な傾向を予測する。
まず、位相空間再構成法を用いて時系列データの固有次元を抽出する。
次に、$alpha$-stable L'evyの動作によって駆動されるSDEを探索し、時系列データをモデル化し、ニューラルネットワーク近似を用いて問題を解く。
論文 参考訳(メタデータ) (2021-11-25T16:49:01Z) - Global Models for Time Series Forecasting: A Simulation Study [2.580765958706854]
自動回帰(AR)や季節ARのような単純なデータ生成プロセス(DGP)からカオスロジスティックマップ、自己興奮型閾値自動回帰、マッキーグラス方程式といった複雑なDGPまで、時系列をシミュレートする。
データセットの長さと系列数は、さまざまなシナリオで変化します。
我々はこれらのデータセットに対して,Recurrent Neural Networks (RNN), Feed-Forward Neural Networks, Pooled Regression (PR) Model, Light Gradient Boosting Models (LGBM)などの大域的予測モデルを用いて実験を行った。
論文 参考訳(メタデータ) (2020-12-23T04:45:52Z) - Transformer Hawkes Process [79.16290557505211]
本稿では,長期的依存関係を捕捉する自己認識機構を利用したTransformer Hawkes Process (THP) モデルを提案する。
THPは、有意なマージンによる可能性と事象予測の精度の両方の観点から、既存のモデルより優れている。
本稿では、THPが関係情報を組み込む際に、複数の点過程を学習する際の予測性能の改善を実現する具体例を示す。
論文 参考訳(メタデータ) (2020-02-21T13:48:13Z) - Convolutional Tensor-Train LSTM for Spatio-temporal Learning [116.24172387469994]
本稿では,ビデオシーケンスの長期相関を効率的に学習できる高次LSTMモデルを提案する。
これは、時間をかけて畳み込み特徴を組み合わせることによって予測を行う、新しいテンソルトレインモジュールによって達成される。
この結果は,幅広いアプリケーションやデータセットにおいて,最先端のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-02-21T05:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。