論文の概要: FaultFormer: Pretraining Transformers for Adaptable Bearing Fault Classification
- arxiv url: http://arxiv.org/abs/2312.02380v3
- Date: Wed, 29 May 2024 15:13:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-31 00:00:32.661979
- Title: FaultFormer: Pretraining Transformers for Adaptable Bearing Fault Classification
- Title(参考訳): FaultFormer: 適応型ベアリング故障分類のための事前学習用変換器
- Authors: Anthony Zhou, Amir Barati Farimani,
- Abstract要約: 本稿では,トランスモデルに基づく自己教師型事前学習および微調整フレームワークを提案する。
特に、最先端のアキュラシーに到達するための異なるトークン化とデータ拡張戦略について検討する。
このパラダイムでは、異なるベアリング、障害、機械からラベル付けされていないデータに基づいてモデルを事前訓練し、新しいデータスカースアプリケーションに素早くデプロイすることが可能になる。
- 参考スコア(独自算出の注目度): 7.136205674624813
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The growth of global consumption has motivated important applications of deep learning to smart manufacturing and machine health monitoring. In particular, analyzing vibration data offers great potential to extract meaningful insights into predictive maintenance by the detection of bearing faults. Deep learning can be a powerful method to predict these mechanical failures; however, they lack generalizability to new tasks or datasets and require expensive, labeled mechanical data. We address this by presenting a novel self-supervised pretraining and fine-tuning framework based on transformer models. In particular, we investigate different tokenization and data augmentation strategies to reach state-of-the-art accuracies using transformer models. Furthermore, we demonstrate self-supervised masked pretraining for vibration signals and its application to low-data regimes, task adaptation, and dataset adaptation. Pretraining is able to improve performance on scarce, unseen training samples, as well as when fine-tuning on fault classes outside of the pretraining distribution. Furthermore, pretrained transformers are shown to be able to generalize to a different dataset in a few-shot manner. This introduces a new paradigm where models can be pretrained on unlabeled data from different bearings, faults, and machinery and quickly deployed to new, data-scarce applications to suit specific manufacturing needs.
- Abstract(参考訳): グローバルな消費の増大は、ディープラーニングのスマート製造や機械の健康モニタリングへの重要な応用を動機付けてきた。
特に、振動データの解析は、軸受欠陥の検出により予測保守に関する有意義な洞察を抽出する大きな可能性を秘めている。
ディープラーニングは、これらの機械的故障を予測する強力な方法だが、新しいタスクやデータセットへの一般化性に欠け、高価なラベル付き機械的データを必要とする。
本稿では,トランスモデルに基づく自己教師型事前学習および微調整フレームワークを提案することで,この問題に対処する。
特に、トランスモデルを用いて、最先端の精度に到達するための異なるトークン化とデータ拡張戦略について検討する。
さらに、振動信号に対する自己教師付きマスクプリトレーニングとその低データ状態、タスク適応、データセット適応への応用を実証する。
事前トレーニングは、不足した未確認のトレーニングサンプルのパフォーマンス向上と、事前トレーニングディストリビューション以外の障害クラスを微調整する際のパフォーマンス向上を可能にする。
さらに、事前訓練されたトランスフォーマーは、数ショットで異なるデータセットに一般化できることが示されている。
このパラダイムでは、異なるベアリング、障害、機械からラベル付けされていないデータに基づいてモデルを事前訓練し、特定の製造ニーズに合った、新しいデータ共有アプリケーションに素早くデプロイすることが可能になる。
関連論文リスト
- What Do Learning Dynamics Reveal About Generalization in LLM Reasoning? [83.83230167222852]
モデルの一般化動作は,事前記憶列車の精度と呼ばれるトレーニング指標によって効果的に特徴づけられることがわかった。
モデルの学習行動と一般化を結びつけることで、トレーニング戦略に目標とする改善を導くことができる。
論文 参考訳(メタデータ) (2024-11-12T09:52:40Z) - Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Robust Machine Learning by Transforming and Augmenting Imperfect
Training Data [6.928276018602774]
この論文は、現代の機械学習のいくつかのデータ感度を探求する。
まず、トレーニングデータで測定された事前の人間の識別をMLが符号化するのを防ぐ方法について論じる。
次に、トレーニング中に予測忠実度を提供するが、デプロイ時に信頼性が低い突発的特徴を含むデータから学習する問題について論じる。
論文 参考訳(メタデータ) (2023-12-19T20:49:28Z) - In-Context Convergence of Transformers [63.04956160537308]
勾配降下法により訓練したソフトマックスアテンションを有する一層変圧器の学習力学について検討した。
不均衡な特徴を持つデータに対しては、学習力学が段階的に収束する過程をとることを示す。
論文 参考訳(メタデータ) (2023-10-08T17:55:33Z) - Self-Distillation for Further Pre-training of Transformers [83.84227016847096]
我々は、さらなる事前学習段階の正則化として自己蒸留を提案する。
画像およびテキスト分類タスクのための様々なベンチマークデータセットにおける自己蒸留の有効性を実証的に検証する。
論文 参考訳(メタデータ) (2022-09-30T02:25:12Z) - Automatic Rule Induction for Efficient Semi-Supervised Learning [56.91428251227253]
半教師付き学習は、少量のラベル付きデータからNLPモデルを一般化できることを約束している。
事前訓練されたトランスモデルはブラックボックス相関エンジンとして機能し、説明が困難であり、時には信頼性に欠ける振る舞いをする。
本稿では,これらの課題に,簡易かつ汎用的なフレームワークであるAutomatic Rule Injection (ARI) を用いて対処することを提案する。
論文 参考訳(メタデータ) (2022-05-18T16:50:20Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - Who supervises the supervisor? Model monitoring in production using deep
feature embeddings with applications to workpiece inspection [0.0]
機械学習は、自律的なプロセス監視の領域で大幅な改善をもたらした。
主な課題の1つは、これらの機械学習システムのライブデプロイメントの監視である。
教師なし分類システム上で機能する教師なしのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-17T19:25:33Z) - Learn to Predict Vertical Track Irregularity with Extremely Imbalanced
Data [6.448383767373112]
中国における複数の鉄道が生み出した実世界の大規模データセットに基づいて,垂直軌道の不規則性を予測するためのアプリケーション・フレームワークについて紹介する。
また,適応型データサンプリングとペナル化損失を用いた時系列予測タスクにおいて,不均衡なデータを扱う新しい手法を提案する。
論文 参考訳(メタデータ) (2020-12-05T15:49:39Z) - How Effective is Task-Agnostic Data Augmentation for Pretrained
Transformers? [7.727662147015879]
タスクに依存しないデータ拡張は、事前訓練されたモデルでもコンピュータビジョンにおいて広く有効であることが証明されている。
事前訓練されたトランスフォーマーに適用した場合、これらのテクニックが本当に有効か尋ねる。
非事前学習モデルに対する強い改善を報告した手法は、事前学習した変換器の性能を一貫して改善することができない。
論文 参考訳(メタデータ) (2020-10-05T03:55:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。