論文の概要: Attention Sequence to Sequence Model for Machine Remaining Useful Life
Prediction
- arxiv url: http://arxiv.org/abs/2007.09868v1
- Date: Mon, 20 Jul 2020 03:40:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 12:37:08.318622
- Title: Attention Sequence to Sequence Model for Machine Remaining Useful Life
Prediction
- Title(参考訳): 生活予測を継続する機械のシーケンスモデルへの注意シーケンス
- Authors: Mohamed Ragab, Zhenghua Chen, Min Wu, Chee-Keong Kwoh, Ruqiang Yan,
and Xiaoli Li
- Abstract要約: 本稿では,ATS2Sモデルを用いた新しいアテンションベースシーケンスを考案する。
我々は、トレーニング過程において重要な入力情報すべてに焦点を合わせるために、注意機構を採用している。
提案手法は,13の最先端手法よりも優れた性能を実現することができる。
- 参考スコア(独自算出の注目度): 13.301585196004796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate estimation of remaining useful life (RUL) of industrial equipment
can enable advanced maintenance schedules, increase equipment availability and
reduce operational costs. However, existing deep learning methods for RUL
prediction are not completely successful due to the following two reasons.
First, relying on a single objective function to estimate the RUL will limit
the learned representations and thus affect the prediction accuracy. Second,
while longer sequences are more informative for modelling the sensor dynamics
of equipment, existing methods are less effective to deal with very long
sequences, as they mainly focus on the latest information. To address these two
problems, we develop a novel attention-based sequence to sequence with
auxiliary task (ATS2S) model. In particular, our model jointly optimizes both
reconstruction loss to empower our model with predictive capabilities (by
predicting next input sequence given current input sequence) and RUL prediction
loss to minimize the difference between the predicted RUL and actual RUL.
Furthermore, to better handle longer sequence, we employ the attention
mechanism to focus on all the important input information during training
process. Finally, we propose a new dual-latent feature representation to
integrate the encoder features and decoder hidden states, to capture rich
semantic information in data. We conduct extensive experiments on four real
datasets to evaluate the efficacy of the proposed method. Experimental results
show that our proposed method can achieve superior performance over 13
state-of-the-art methods consistently.
- Abstract(参考訳): 工業機器の有効寿命(RUL)の正確な推定は、保守の高度化、設備の可用性の向上、運用コストの削減を可能にする。
しかし、RUL予測のための既存のディープラーニング手法は、以下の2つの理由から完全には成功していない。
まず、RULを推定するために単一の目的関数に依存すると、学習した表現を制限し、予測精度に影響を与える。
第二に、より長いシーケンスは機器のセンサーダイナミクスをモデル化するのにより有益であるが、既存の手法は最新の情報に重点を置いているため、非常に長いシーケンスを扱うのにあまり効果的ではない。
これら2つの問題に対処するため,AtS2Sモデルを用いた新しいアテンションベースシーケンスを開発した。
特に, このモデルでは, 予測能力を有するモデルと, 予測されたRULと実際のRULとの差を最小限に抑えるためのRUL予測損失を共同で最適化する。
さらに、より長いシーケンスをうまく処理するために、トレーニングプロセスにおいて重要な入力情報すべてにフォーカスするアテンション機構を用いる。
最後に、エンコーダ機能とデコーダ隠蔽状態を統合し、データ中のリッチなセマンティック情報をキャプチャする、新しいデュアル遅延特徴表現を提案する。
提案手法の有効性を評価するために,4つの実データについて広範な実験を行った。
実験の結果,提案手法は13種類の最先端手法よりも優れた性能が得られることがわかった。
関連論文リスト
- Long-Sequence Recommendation Models Need Decoupled Embeddings [49.410906935283585]
我々は、既存の長期推薦モデルにおいて無視された欠陥を識別し、特徴付ける。
埋め込みの単一のセットは、注意と表現の両方を学ぶのに苦労し、これら2つのプロセス間の干渉につながります。
本稿では,2つの異なる埋め込みテーブルを別々に学習し,注意と表現を完全に分離する,DARE(Decoupled Attention and Representation Embeddings)モデルを提案する。
論文 参考訳(メタデータ) (2024-10-03T15:45:15Z) - Denoising Pre-Training and Customized Prompt Learning for Efficient Multi-Behavior Sequential Recommendation [69.60321475454843]
マルチビヘイビアシークエンシャルレコメンデーションに適した,最初の事前学習および迅速な学習パラダイムであるDPCPLを提案する。
事前学習段階において,複数の時間スケールでノイズを除去する新しい行動マイナ (EBM) を提案する。
次に,提案するCustomized Prompt Learning (CPL)モジュールを用いて,事前学習したモデルを高効率にチューニングすることを提案する。
論文 参考訳(メタデータ) (2024-08-21T06:48:38Z) - Skeleton2vec: A Self-supervised Learning Framework with Contextualized
Target Representations for Skeleton Sequence [56.092059713922744]
予測対象として高レベルな文脈化機能を使用することで,優れた性能が得られることを示す。
具体的には、シンプルで効率的な3D行動表現学習フレームワークであるSkeleton2vecを提案する。
提案するSkeleton2vecは,従来の手法より優れ,最先端の結果が得られる。
論文 参考訳(メタデータ) (2024-01-01T12:08:35Z) - Value function estimation using conditional diffusion models for control [62.27184818047923]
拡散値関数(DVF)と呼ばれる単純なアルゴリズムを提案する。
拡散モデルを用いて環境-ロボット相互作用の連成多段階モデルを学ぶ。
本稿では,DVFを用いて複数のコントローラの状態を効率よく把握する方法を示す。
論文 参考訳(メタデータ) (2023-06-09T18:40:55Z) - Multi-Dimensional Self Attention based Approach for Remaining Useful
Life Estimation [0.17205106391379021]
RUL(Remaining Useful Life)推定は、予後・健康管理(PHM)において重要な役割を担っている。
本稿では,IIoTシナリオにおけるマルチセンサデバイスのための生活予測モデルについて検討する。
本稿では,RUL推定のためのデータ駆動手法を提案する。
論文 参考訳(メタデータ) (2022-12-12T08:50:27Z) - Checklist Models for Improved Output Fluency in Piano Fingering
Prediction [33.52847881359949]
ピアノ音楽の指先予測のための新しい手法を提案する。
我々は、近年の予測の表現を維持する強化学習を通じて訓練されたチェックリストシステムを提案する。
これらの指標に対する改善に直接寄与する性能の顕著な向上を示す。
論文 参考訳(メタデータ) (2022-09-12T21:27:52Z) - Accurate Remaining Useful Life Prediction with Uncertainty
Quantification: a Deep Learning and Nonstationary Gaussian Process Approach [0.0]
有用寿命 (Retaining useful life, RUL) とは、あるコンポーネントやシステムの寿命が期待されていることを指す。
我々は、深層学習と非定常ガウス過程回帰(DL-NSGPR)の利点を統合し、活用する、不確実な定量化を伴う高精度なRUL予測モデルを考案した。
計算実験の結果,DL-NSGPR予測はルート平均2乗誤差1.7~6.2倍の精度で精度が高いことがわかった。
論文 参考訳(メタデータ) (2021-09-23T18:19:58Z) - Dual Aspect Self-Attention based on Transformer for Remaining Useful
Life Prediction [15.979729373555024]
本稿では,新しい深部RUL予測手法であるTransformer (DAST) に基づくDual Aspect Self-attentionを提案する。
DASTは2つのエンコーダから構成されており、異なるセンサーと時間ステップの特徴を同時に抽出する。
2つの実ターボファンエンジンデータセットによる実験結果から,本手法は最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-06-30T06:54:59Z) - Learning representations with end-to-end models for improved remaining
useful life prognostics [64.80885001058572]
残りの設備の実用寿命(RUL)は、現在の時刻と故障までの期間として定義される。
マルチ層パーセプトロンと長期メモリ層(LSTM)に基づくエンドツーエンドのディープラーニングモデルを提案し、RULを予測する。
提案するエンド・ツー・エンドのモデルがこのような優れた結果を達成し、他のディープラーニングや最先端の手法と比較する方法について論じる。
論文 参考訳(メタデータ) (2021-04-11T16:45:18Z) - Representation Learning for Sequence Data with Deep Autoencoding
Predictive Components [96.42805872177067]
本稿では,シーケンスデータの有用な表現が潜在空間における単純な構造を示すべきという直感に基づく,シーケンスデータの自己教師型表現学習法を提案する。
我々は,過去と将来のウィンドウ間の相互情報である潜在特徴系列の予測情報を最大化することにより,この潜時構造を奨励する。
提案手法は,ノイズの多い動的システムの潜時空間を復元し,タスク予測のための予測特徴を抽出し,エンコーダを大量の未ラベルデータで事前訓練する場合に音声認識を改善する。
論文 参考訳(メタデータ) (2020-10-07T03:34:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。