論文の概要: A novel Time-frequency Transformer and its Application in Fault
Diagnosis of Rolling Bearings
- arxiv url: http://arxiv.org/abs/2104.09079v1
- Date: Mon, 19 Apr 2021 06:53:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 14:23:32.124097
- Title: A novel Time-frequency Transformer and its Application in Fault
Diagnosis of Rolling Bearings
- Title(参考訳): 新しい時間-周波数変圧器と転がり軸受の故障診断への応用
- Authors: Yifei Ding, Minping Jia, Qiuhua Miao, Yudong Cao
- Abstract要約: シーケンス処理における標準変換器の膨大な成功に触発された新しい時間周波数変換器(TFT)モデルを提案する。
本稿では,TFTに基づく新しいエンドツーエンドの故障診断フレームワークについて述べる。
- 参考スコア(独自算出の注目度): 0.24214594180459362
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The scope of data-driven fault diagnosis models is greatly improved through
deep learning (DL). However, the classical convolution and recurrent structure
have their defects in computational efficiency and feature representation,
while the latest Transformer architecture based on attention mechanism has not
been applied in this field. To solve these problems, we propose a novel
time-frequency Transformer (TFT) model inspired by the massive success of
standard Transformer in sequence processing. Specially, we design a fresh
tokenizer and encoder module to extract effective abstractions from the
time-frequency representation (TFR) of vibration signals. On this basis, a new
end-to-end fault diagnosis framework based on time-frequency Transformer is
presented in this paper. Through the case studies on bearing experimental
datasets, we constructed the optimal Transformer structure and verified the
performance of the diagnostic method. The superiority of the proposed method is
demonstrated in comparison with the benchmark model and other state-of-the-art
methods.
- Abstract(参考訳): データ駆動型故障診断モデルの範囲は、ディープラーニング(DL)により大幅に改善される。
しかしながら、古典的畳み込みと再帰構造は計算効率と特徴表現に欠陥があるが、注意機構に基づく最新のトランスフォーマーアーキテクチャはこの分野では適用されていない。
そこで本研究では, シーケンス処理における標準変圧器の大成功に触発された新しい時間周波数変圧器(tft)モデルを提案する。
特に,振動信号の時間周波数表現(tfr)から効果的な抽象化を抽出するために,フレッシュトークン化器とエンコーダモジュールを設計した。
そこで本論文では,時間周波数変換器に基づく新しいエンドツーエンド故障診断フレームワークを提案する。
実験データセットの組込みに関するケーススタディを通じて,最適なトランスフォーマー構造を構築し,診断手法の性能を検証した。
提案手法の優位性は,ベンチマークモデルや他の最先端手法との比較により示される。
関連論文リスト
- Learning on Transformers is Provable Low-Rank and Sparse: A One-layer Analysis [63.66763657191476]
低ランク計算としての効率的な数値学習と推論アルゴリズムはトランスフォーマーに基づく適応学習に優れた性能を持つことを示す。
我々は、等級モデルが適応性を改善しながら一般化にどのように影響するかを分析する。
適切なマグニチュードベースのテストは,テストパフォーマンスに多少依存している,と結論付けています。
論文 参考訳(メタデータ) (2024-06-24T23:00:58Z) - Short-Time Fourier Transform for deblurring Variational Autoencoders [0.0]
変分オートエンコーダ(VAE)は強力な生成モデルである。
彼らの生成したサンプルは、代替生成技術の出力と比較して、特徴的な曖昧さに悩まされていることが知られている。
論文 参考訳(メタデータ) (2024-01-06T08:57:11Z) - TSViT: A Time Series Vision Transformer for Fault Diagnosis [2.710064390178205]
本稿では,効率的な故障診断のための時系列ビジョン変換器(TSViT)を提案する。
TSViTは畳み込み層を組み込み、振動信号から局所的な特徴を抽出する。
TSViTは2つのテストセットで前例のない平均精度を達成し、もう1つのテストセットで99.99%を達成している。
論文 参考訳(メタデータ) (2023-11-12T18:16:48Z) - Diagnostic Spatio-temporal Transformer with Faithful Encoding [54.02712048973161]
本稿では,データ生成プロセスが複合時間(ST)依存性を持つ場合の異常診断の課題について述べる。
我々は、ST依存を時系列分類の副産物として学習する、教師付き依存発見として問題を定式化する。
既存のST変圧器で使用される時間的位置符号化は、高周波数(短時間スケール)の周波数をキャプチャする重大な制限を有することを示す。
また、空間的および時間的方向の両方で容易に消費可能な診断情報を提供する新しいST依存性発見フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-26T05:31:23Z) - Full Stack Optimization of Transformer Inference: a Survey [58.55475772110702]
トランスフォーマーモデルは広範囲のアプリケーションにまたがって優れた精度を実現する。
最近のTransformerモデルの推測に必要な計算量と帯域幅は、かなり増加しています。
Transformerモデルをより効率的にすることに注力している。
論文 参考訳(メタデータ) (2023-02-27T18:18:13Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - Transform Once: Efficient Operator Learning in Frequency Domain [69.74509540521397]
本研究では、周波数領域の構造を利用して、空間や時間における長距離相関を効率的に学習するために設計されたディープニューラルネットワークについて検討する。
この研究は、単一変換による周波数領域学習のための青写真を導入している。
論文 参考訳(メタデータ) (2022-11-26T01:56:05Z) - A microstructure estimation Transformer inspired by sparse
representation for diffusion MRI [11.761543033212797]
ダウンサンプルq空間データを用いたdMRIによる微細構造推定のためのTransformerに基づく学習ベースフレームワークを提案する。
提案手法は,スキャン時間で最大11.25倍の加速を実現し,他の最先端の学習手法よりも優れていた。
論文 参考訳(メタデータ) (2022-05-13T05:14:22Z) - ETSformer: Exponential Smoothing Transformers for Time-series
Forecasting [35.76867542099019]
時系列予測のための変換器の改良に指数的スムース化の原理を利用する新しい時系列変換器アーキテクチャであるETSFormerを提案する。
特に,時系列予測における古典的指数的スムージング手法に着想を得て,バニラ変圧器の自己保持機構を置き換えるために,新しい指数的スムージングアテンション(ESA)と周波数アテンション(FA)を提案する。
論文 参考訳(メタデータ) (2022-02-03T02:50:44Z) - Applying the Transformer to Character-level Transduction [68.91664610425114]
この変換器は、様々な単語レベルのNLPタスクにおいて、繰り返しニューラルネットワークに基づくシーケンス・ツー・シーケンスモデルより優れていることが示されている。
十分なバッチサイズで、トランスフォーマーは文字レベルタスクの繰り返しモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-05-20T17:25:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。