論文の概要: FaultFormer: Transformer-based Prediction of Bearing Faults
- arxiv url: http://arxiv.org/abs/2312.02380v1
- Date: Mon, 4 Dec 2023 22:51:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 17:28:22.630480
- Title: FaultFormer: Transformer-based Prediction of Bearing Faults
- Title(参考訳): FaultFormer: 変圧器による軸受断層の予測
- Authors: Anthony Zhou and Amir Barati Farimani
- Abstract要約: 本稿では,振動信号を解析し,異なる種類の軸受欠陥を予測するためのトランスフォーマーベースのフレームワークを提案する。
特に,データ拡張を用いて信号データを処理し,そのフーリエモードを抽出し,トランスフォーマーエンコーダを訓練し,芸術的精度を実現する。
- 参考スコア(独自算出の注目度): 8.430481660019451
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The growth of deep learning in the past decade has motivated important
applications to smart manufacturing and machine health monitoring. In
particular, vibration data offers a rich and reliable source to provide
meaningful insights into machine health and predictive maintenance. In this
work, we present a Transformer based framework for analyzing vibration signals
to predict different types of bearing faults (FaultFormer). In particular, we
process signal data using data augmentations and extract their Fourier modes to
train a transformer encoder to achieve state of the art accuracies. The
attention mechanism as well as model outputs were analyzed to confirm the
transformer's ability to automatically extract features within signals and
learn both global and local relationships to make classifications. Lastly, two
pretraining strategies were proposed to pave the way for large, generalizable
transformers that could adapt to new data, situations, or machinery on the
production floor.
- Abstract(参考訳): 過去10年間のディープラーニングの成長は、スマートマニュファクチャリングとマシンヘルスモニタリングに重要な応用を動機付けている。
特に、振動データは、機械の健康と予測の保守に関する有意義な洞察を提供する、リッチで信頼性の高い情報源を提供する。
本研究では,振動信号を解析し,異なる種類のベアリング障害(FaultFormer)を予測するためのトランスフォーマーベースのフレームワークを提案する。
特に,データ拡張を用いて信号データを処理し,そのフーリエモードを抽出し,トランスフォーマーエンコーダを訓練し,芸術的精度を実現する。
注意機構とモデル出力を分析し,信号中の特徴を自動的に抽出し,グローバルおよびローカルな関係を学習して分類を行うトランスフォーマーの能力を確認した。
最後に、2つの事前訓練戦略が提案され、生産フロアの新しいデータ、状況、機械に適応できる大型で一般化可能なトランスフォーマーの道を開いた。
関連論文リスト
- Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - An Emulator for Fine-Tuning Large Language Models using Small Language
Models [91.02498576056057]
本研究では,異なるスケールでの事前学習と微調整の結果を近似する分布から,エミュレート・ファインチューニング(EFT)を原理的かつ実用的なサンプリング法として導入する。
EFTは、追加トレーニングを伴わずに、有益性や無害性といった競合する行動特性をテスト時間で調整できることを示す。
最後に、LMアップスケーリングと呼ばれるエミュレートされたファインチューニングの特殊な場合において、小さなファインチューニングモデルと組み合わせることで、大きな事前学習モデルのリソース集約的なファインチューニングを回避する。
論文 参考訳(メタデータ) (2023-10-19T17:57:16Z) - In-Context Convergence of Transformers [63.04956160537308]
勾配降下法により訓練したソフトマックスアテンションを有する一層変圧器の学習力学について検討した。
不均衡な特徴を持つデータに対しては、学習力学が段階的に収束する過程をとることを示す。
論文 参考訳(メタデータ) (2023-10-08T17:55:33Z) - Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z) - What Happens During Finetuning of Vision Transformers: An Invariance
Based Investigation [7.432224771219168]
Pretrain-finetuneパラダイムは、通常、同じタスクでモデルをスクラッチからトレーニングするよりも、下流のパフォーマンスを改善する。
本研究では,事前学習した視覚変換器とそれに対応する微調整バージョンとの関係を,複数のベンチマークデータセットとタスクで検討する。
論文 参考訳(メタデータ) (2023-07-12T08:35:24Z) - Emergent Agentic Transformer from Chain of Hindsight Experience [96.56164427726203]
簡単なトランスフォーマーベースモデルが時間差と模倣学習に基づくアプローチの両方と競合することを示す。
単純なトランスフォーマーベースのモデルが時間差と模倣学習ベースのアプローチの両方で競合するのはこれが初めてである。
論文 参考訳(メタデータ) (2023-05-26T00:43:02Z) - Self-Distillation for Further Pre-training of Transformers [83.84227016847096]
我々は、さらなる事前学習段階の正則化として自己蒸留を提案する。
画像およびテキスト分類タスクのための様々なベンチマークデータセットにおける自己蒸留の有効性を実証的に検証する。
論文 参考訳(メタデータ) (2022-09-30T02:25:12Z) - How Effective is Task-Agnostic Data Augmentation for Pretrained
Transformers? [7.727662147015879]
タスクに依存しないデータ拡張は、事前訓練されたモデルでもコンピュータビジョンにおいて広く有効であることが証明されている。
事前訓練されたトランスフォーマーに適用した場合、これらのテクニックが本当に有効か尋ねる。
非事前学習モデルに対する強い改善を報告した手法は、事前学習した変換器の性能を一貫して改善することができない。
論文 参考訳(メタデータ) (2020-10-05T03:55:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。