論文の概要: Dual Aspect Self-Attention based on Transformer for Remaining Useful
Life Prediction
- arxiv url: http://arxiv.org/abs/2106.15842v1
- Date: Wed, 30 Jun 2021 06:54:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-01 12:33:56.342974
- Title: Dual Aspect Self-Attention based on Transformer for Remaining Useful
Life Prediction
- Title(参考訳): 変圧器を用いた生活予測のための二重アスペクト自己認識
- Authors: Zhizheng Zhang, Wen Song, Qiqiang Li
- Abstract要約: 本稿では,新しい深部RUL予測手法であるTransformer (DAST) に基づくDual Aspect Self-attentionを提案する。
DASTは2つのエンコーダから構成されており、異なるセンサーと時間ステップの特徴を同時に抽出する。
2つの実ターボファンエンジンデータセットによる実験結果から,本手法は最先端の手法よりも優れていた。
- 参考スコア(独自算出の注目度): 15.979729373555024
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Remaining useful life prediction (RUL) is one of the key technologies of
condition-based maintenance, which is important to maintain the reliability and
safety of industrial equipments. While deep learning has achieved great success
in RUL prediction, existing methods have difficulties in processing long
sequences and extracting information from the sensor and time step aspects. In
this paper, we propose Dual Aspect Self-attention based on Transformer (DAST),
a novel deep RUL prediction method. DAST consists of two encoders, which work
in parallel to simultaneously extract features of different sensors and time
steps. Solely based on self-attention, the DAST encoders are more effective in
processing long data sequences, and are capable of adaptively learning to focus
on more important parts of input. Moreover, the parallel feature extraction
design avoids mutual influence of information from two aspects. Experimental
results on two real turbofan engine datasets show that our method significantly
outperforms state-of-the-art methods.
- Abstract(参考訳): rul(containing useful life prediction)は,産業機器の信頼性と安全性を維持する上で重要となる,コンディションベース・メンテナンスの重要な技術の一つである。
ディープラーニングはRUL予測において大きな成功を収めてきたが、既存の手法では長いシーケンスを処理したり、センサーや時間ステップの側面から情報を取り出すのが困難である。
本稿では,新しい深部RUL予測手法であるTransformer (DAST) に基づくDual Aspect Self-attentionを提案する。
DASTは2つのエンコーダから構成されており、異なるセンサーと時間ステップの特徴を同時に抽出する。
自己注意に基づいて、DASTエンコーダは長いデータシーケンスを処理するのに効果的であり、入力のより重要な部分に集中するように適応的に学習することができる。
さらに、並列特徴抽出設計は、情報の相互影響を2つの側面から回避する。
2つの実ターボファンエンジンデータセットによる実験結果から,本手法は最先端の手法よりも優れていた。
関連論文リスト
- SeaDATE: Remedy Dual-Attention Transformer with Semantic Alignment via Contrast Learning for Multimodal Object Detection [18.090706979440334]
マルチモーダルオブジェクト検出は、様々なモーダル情報を活用して、検出器の精度と堅牢性を高める。
現在の方法では、トランスフォーマー誘導核融合技術は、ネットワークの様々な深さ層における特徴を抽出する能力を探ることなく、単純にスタック化されている。
本論文では,SeaDATEと呼ばれる高精度かつ効率的な物体検出手法を提案する。
論文 参考訳(メタデータ) (2024-10-15T07:26:39Z) - DAPE V2: Process Attention Score as Feature Map for Length Extrapolation [63.87956583202729]
我々は特徴写像としての注意を概念化し、コンピュータビジョンにおける処理方法を模倣するために畳み込み演算子を適用した。
様々な注意関係のモデルに適応できる新しい洞察は、現在のTransformerアーキテクチャがさらなる進化の可能性があることを示している。
論文 参考訳(メタデータ) (2024-10-07T07:21:49Z) - State Sequences Prediction via Fourier Transform for Representation
Learning [111.82376793413746]
本研究では,表現表現を効率よく学習する新しい方法である,フーリエ変換(SPF)による状態列予測を提案する。
本研究では,状態系列における構造情報の存在を理論的に解析する。
実験により,提案手法はサンプル効率と性能の両面で,最先端のアルゴリズムよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-10-24T14:47:02Z) - Exploring the Benefits of Differentially Private Pre-training and
Parameter-Efficient Fine-tuning for Table Transformers [56.00476706550681]
Table Transformer(TabTransformer)は最先端のニューラルネットワークモデルであり、差分プライバシ(DP)はデータのプライバシを確保する上で不可欠なコンポーネントである。
本稿では,これら2つの側面を組み合わせ,伝達学習のシナリオで組み合わせることのメリットについて考察する。
論文 参考訳(メタデータ) (2023-09-12T19:08:26Z) - Learning Better with Less: Effective Augmentation for Sample-Efficient
Visual Reinforcement Learning [57.83232242068982]
データ拡張(DA)は、ビジュアル強化学習(RL)アルゴリズムのサンプル効率を高める重要な手法である。
サンプル効率のよい視覚的RLを実現する上で, DAのどの属性が有効かは明らかになっていない。
本研究は,DAの属性が有効性に与える影響を評価するための総合的な実験を行う。
論文 参考訳(メタデータ) (2023-05-25T15:46:20Z) - CARD: Channel Aligned Robust Blend Transformer for Time Series
Forecasting [50.23240107430597]
本稿では,CARD(Channel Aligned Robust Blend Transformer)という特殊なトランスを設計する。
まず、CARDはチャネルに沿ったアテンション構造を導入し、信号間の時間的相関をキャプチャする。
第二に、マルチスケール知識を効率的に活用するために、異なる解像度のトークンを生成するトークンブレンドモジュールを設計する。
第3に,潜在的な過度な問題を軽減するため,時系列予測のためのロバストな損失関数を導入する。
論文 参考訳(メタデータ) (2023-05-20T05:16:31Z) - Multi-Dimensional Self Attention based Approach for Remaining Useful
Life Estimation [0.17205106391379021]
RUL(Remaining Useful Life)推定は、予後・健康管理(PHM)において重要な役割を担っている。
本稿では,IIoTシナリオにおけるマルチセンサデバイスのための生活予測モデルについて検討する。
本稿では,RUL推定のためのデータ駆動手法を提案する。
論文 参考訳(メタデータ) (2022-12-12T08:50:27Z) - Joint Spatial-Temporal and Appearance Modeling with Transformer for
Multiple Object Tracking [59.79252390626194]
本稿ではTransSTAMという新しい手法を提案する。Transformerを利用して各オブジェクトの外観特徴とオブジェクト間の空間的時間的関係の両方をモデル化する。
提案手法はMOT16, MOT17, MOT20を含む複数の公開ベンチマークで評価され, IDF1とHOTAの両方で明確な性能向上を実現している。
論文 参考訳(メタデータ) (2022-05-31T01:19:18Z) - Transfer Learning for Autonomous Chatter Detection in Machining [0.9281671380673306]
大振幅のシャッター振動は加工過程において最も重要な現象の1つである。
業界全体でのチャット検出に機械学習を適用する上で、3つの課題が特定できる。
これら3つの課題は、移行学習の傘の下でグループ化することができる。
論文 参考訳(メタデータ) (2022-04-11T20:46:06Z) - On Transfer Learning of Traditional Frequency and Time Domain Features
in Turning [1.0965065178451106]
我々は従来の信号処理ツールを用いて、回転実験から得られた加速度計信号のチャタを識別する。
タグ付けされた信号は、分類器の訓練に使用される。
その結果、フーリエスペクトルから抽出した特徴は、分類器を訓練し、同じ切断構成からデータをテストする際に最も有益であることがわかった。
論文 参考訳(メタデータ) (2020-08-28T14:47:57Z) - Attention Sequence to Sequence Model for Machine Remaining Useful Life
Prediction [13.301585196004796]
本稿では,ATS2Sモデルを用いた新しいアテンションベースシーケンスを考案する。
我々は、トレーニング過程において重要な入力情報すべてに焦点を合わせるために、注意機構を採用している。
提案手法は,13の最先端手法よりも優れた性能を実現することができる。
論文 参考訳(メタデータ) (2020-07-20T03:40:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。