論文の概要: FTT-GRU: A Hybrid Fast Temporal Transformer with GRU for Remaining Useful Life Prediction
- arxiv url: http://arxiv.org/abs/2511.00564v1
- Date: Sat, 01 Nov 2025 14:02:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.845127
- Title: FTT-GRU: A Hybrid Fast Temporal Transformer with GRU for Remaining Useful Life Prediction
- Title(参考訳): FTT-GRU:GRUを用いたハイブリッド型高速時間変圧器の寿命予測
- Authors: Varun Teja Chirukiri, Udaya Bhasker Cheerala, Sandeep Kanta, Abdul Karim, Praveen Damacharla,
- Abstract要約: 本稿では,Fast Temporal Transformer (FTT) とゲートリカレントユニット (GRU) を組み合わせ,逐次モデリングを行うハイブリッドモデル FTT-GRU を提案する。
NASA CMAPSS FD001では、FTT-GRUはRMSE 30.76、MAE 18.97、R2=0.45$に達し、バッチ=1.12msのCPUレイテンシを持つ。
これらの結果は,コンパクトなTransformer-RNNハイブリッドがCMAPSS上で高精度かつ効率的なRUL予測を実現することを示す。
- 参考スコア(独自算出の注目度): 0.6421270655703623
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Accurate prediction of the remaining useful life (RUL) of industrial machinery is essential for reducing downtime and optimizing maintenance schedules. Existing approaches, such as long short-term memory (LSTM) networks and convolutional neural networks (CNNs), often struggle to model both global temporal dependencies and fine-grained degradation trends in multivariate sensor data. We propose a hybrid model, FTT-GRU, which combines a Fast Temporal Transformer (FTT) -- a lightweight Transformer variant using linearized attention via fast Fourier transform (FFT) -- with a gated recurrent unit (GRU) layer for sequential modeling. To the best of our knowledge, this is the first application of an FTT with a GRU for RUL prediction on NASA CMAPSS, enabling simultaneous capture of global and local degradation patterns in a compact architecture. On CMAPSS FD001, FTT-GRU attains RMSE 30.76, MAE 18.97, and $R^2=0.45$, with 1.12 ms CPU latency at batch=1. Relative to the best published deep baseline (TCN--Attention), it improves RMSE by 1.16\% and MAE by 4.00\%. Training curves averaged over $k=3$ runs show smooth convergence with narrow 95\% confidence bands, and ablations (GRU-only, FTT-only) support the contribution of both components. These results demonstrate that a compact Transformer-RNN hybrid delivers accurate and efficient RUL predictions on CMAPSS, making it suitable for real-time industrial prognostics.
- Abstract(参考訳): 産業機械の残余寿命(RUL)の正確な予測は、ダウンタイムの削減とメンテナンススケジュールの最適化に不可欠である。
長い短期記憶(LSTM)ネットワークや畳み込みニューラルネットワーク(CNN)といった既存のアプローチは、多変量センサーデータにおけるグローバルな時間的依存と微妙な劣化傾向の両方をモデル化するのに苦労することが多い。
本稿では、高速フーリエ変換(FFT)による線形化アテンションを用いた軽量トランスフォーマーであるFast Temporal Transformer (FTT)と、逐次モデリングのためのゲートリカレントユニット(GRU)層を組み合わせたハイブリッドモデルFTT-GRUを提案する。
我々の知る限り、これはNASA CMAPSS上のRUL予測のためのGRU付きFTTの最初の応用であり、コンパクトアーキテクチャにおけるグローバルおよびローカルな劣化パターンの同時キャプチャを可能にする。
CMAPSS FD001では、FTT-GRUはRMSE 30.76、MAE 18.97、および$R^2=0.45$に達し、バッチ=1で1.12msのCPUレイテンシを持つ。
最高の発行されたディープベースライン(TCN-Attention)に対して、RMSEは1.16\%、MAEは4.00\%改善する。
平均$k=3$以上のトレーニング曲線は、95%の信頼帯域を持つ滑らかな収束を示し、Ablations(GRUのみ、FTTのみ)は両方のコンポーネントの寄与をサポートする。
これらの結果から,小型トランスフォーマー-RNNハイブリッドはCMAPSS上での高精度かつ効率的なRUL予測を実現し,リアルタイム産業診断に適していることが示された。
関連論文リスト
- RatioWaveNet: A Learnable RDWT Front-End for Robust and Interpretable EEG Motor-Imagery Classification [1.4069478981641936]
本稿では、トレーニング可能なRationally-Dilated Wavelet Transformフロントエンドで、強力な時間的CNN-Transformerバックボーンを増強するRatioWaveNetを提案する。
我々のゴールは、この原理化されたウェーブレットフロントエンドが、BCIが通常失敗するところのロバスト性を改善するかどうかをテストすることである。
論文 参考訳(メタデータ) (2025-10-22T14:04:03Z) - Learning from Scratch: Structurally-masked Transformer for Next Generation Lib-free Simulation [5.564681128355971]
本稿では,多段階データパスのパワーとタイミング予測のためのニューラルネットワークフレームワークを提案する。
私たちの知る限りでは、これは標準セル用に明示的に設計された言語ベースのネットリスト対応ニューラルネットワークとしては初めてのものです。
論文 参考訳(メタデータ) (2025-07-23T10:46:25Z) - rule4ml: An Open-Source Tool for Resource Utilization and Latency Estimation for ML Models on FPGA [0.0]
本稿では、FPGA上での合成と実装に先立って、ニューラルネットワーク(NN)のリソース利用と推論遅延を予測する新しい手法を提案する。
NNを高レベル合成(HLS)コードに変換するツールフローであるHLS4MLを活用している。
本手法では, 即時前合成予測に適応した回帰モデルを用いる。
論文 参考訳(メタデータ) (2024-08-09T19:35:10Z) - Semi-Federated Learning: Convergence Analysis and Optimization of A
Hybrid Learning Framework [70.83511997272457]
本稿では,ベースステーション(BS)とデバイスの両方を活用するセミフェデレーション学習(SemiFL)パラダイムを提案し,中央集権学習(CL)とFLのハイブリッド実装を提案する。
我々はこの難解な問題を解くための2段階のアルゴリズムを提案し、ビームフォーマに閉形式解を提供する。
論文 参考訳(メタデータ) (2023-10-04T03:32:39Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - Transform Once: Efficient Operator Learning in Frequency Domain [69.74509540521397]
本研究では、周波数領域の構造を利用して、空間や時間における長距離相関を効率的に学習するために設計されたディープニューラルネットワークについて検討する。
この研究は、単一変換による周波数領域学習のための青写真を導入している。
論文 参考訳(メタデータ) (2022-11-26T01:56:05Z) - Adaptive Split-Fusion Transformer [90.04885335911729]
本稿では,適応重みによる畳み込みと注目の分岐を異なる方法で扱うための適応分割変換器(ASF-former)を提案する。
ImageNet-1Kのような標準ベンチマークの実験では、我々のASFフォーマーはCNN、トランスフォーマー、ハイブリッドパイロットを精度で上回っている。
論文 参考訳(メタデータ) (2022-04-26T10:00:28Z) - Global Vision Transformer Pruning with Hessian-Aware Saliency [93.33895899995224]
この研究はヴィジュアルトランスフォーマー(ViT)モデルの共通設計哲学に挑戦する。
遅延を意識した規則化による直接遅延低減を実現し,すべての層や構造に匹敵する新しいヘッセン型構造解析基準を導出する。
DeiT-Baseモデルで反復的なプルーニングを実行すると、NViT(Novel ViT)と呼ばれる新しいアーキテクチャファミリが生まれ、パラメータをより効率的に利用する新しいパラメータが現れる。
論文 参考訳(メタデータ) (2021-10-10T18:04:59Z) - TCCT: Tightly-Coupled Convolutional Transformer on Time Series
Forecasting [6.393659160890665]
本稿では, 密結合型畳み込み変換器(TCCT)と3つのTCCTアーキテクチャを提案する。
実世界のデータセットに対する我々の実験は、我々のTCCTアーキテクチャが既存の最先端トランスフォーマーモデルの性能を大幅に改善できることを示している。
論文 参考訳(メタデータ) (2021-08-29T08:49:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。