論文の概要: Benchmarking Traditional Machine Learning and Deep Learning Models for Fault Detection in Power Transformers
- arxiv url: http://arxiv.org/abs/2505.06295v1
- Date: Wed, 07 May 2025 15:19:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:48.75632
- Title: Benchmarking Traditional Machine Learning and Deep Learning Models for Fault Detection in Power Transformers
- Title(参考訳): 電力変換器の故障検出のための従来の機械学習モデルとディープラーニングモデルのベンチマーク
- Authors: Bhuvan Saravanan, Pasanth Kumar M D, Aarnesh Vengateson,
- Abstract要約: 本研究では,従来の機械学習(ML)アルゴリズムと,電力変換器の故障分類のためのディープラーニング(DL)アルゴリズムの比較分析を行った。
10ヶ月にわたる条件監視データセットを用いて、様々なガス濃度の特徴を正規化し、5つのML分類器の訓練に利用した。
RFモデルは86.82%、一方1D-CNNモデルは86.30%であった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate diagnosis of power transformer faults is essential for ensuring the stability and safety of electrical power systems. This study presents a comparative analysis of conventional machine learning (ML) algorithms and deep learning (DL) algorithms for fault classification of power transformers. Using a condition-monitored dataset spanning 10 months, various gas concentration features were normalized and used to train five ML classifiers: Support Vector Machine (SVM), k-Nearest Neighbors (KNN), Random Forest (RF), XGBoost, and Artificial Neural Network (ANN). In addition, four DL models were evaluated: Long Short-Term Memory (LSTM), Gated Recurrent Unit (GRU), One-Dimensional Convolutional Neural Network (1D-CNN), and TabNet. Experimental results show that both ML and DL approaches performed comparably. The RF model achieved the highest ML accuracy at 86.82%, while the 1D-CNN model attained a close 86.30%.
- Abstract(参考訳): 電力変圧器故障の正確な診断は、電力系統の安定性と安全性を確保するために不可欠である。
本研究では,従来の機械学習(ML)アルゴリズムと,電力変換器の故障分類のためのディープラーニング(DL)アルゴリズムの比較分析を行った。
10ヶ月にわたる条件監視データセットを使用して、さまざまなガス濃度の特徴を正規化し、SVM(Support Vector Machine)、k-Nearest Neighbors(KNN)、Random Forest(RF)、XGBoost(XGBoost)、Artificial Neural Network(ANN)の5つのML分類器を訓練した。
さらに,Long Short-Term Memory (LSTM), Gated Recurrent Unit (GRU), One-dimensional Convolutional Neural Network (1D-CNN), TabNetの4つのDLモデルを評価した。
実験の結果,MLとDLの両アプローチが比較可能であった。
RFモデルは86.82%、一方1D-CNNモデルは86.30%であった。
関連論文リスト
- Exploring Wavelet Transformations for Deep Learning-based Machine Condition Diagnosis [0.0]
本研究では、時系列電流信号をウェーブレット変換により時間周波数2D表現に変換する。
この研究はWT-Amor、WT-Bump、WT-Morse、WSST-Amor、WSST-Bumpの5つの技術を用いている。
WT-Amor、WT-Bump、WT-MorseのDLモデルは、それぞれ90.93、89.20、93.73%のピークモデル精度で顕著な効果を示した。
論文 参考訳(メタデータ) (2024-08-19T02:06:33Z) - Comparison of gait phase detection using traditional machine learning
and deep learning techniques [3.11526333124308]
本研究では,人間歩行のための低レベルEMGデータに基づく機械学習(ML)モデルを提案する。
その結果,従来のMLモデルでは75%,ディープラーニング(DL)モデルでは79%の精度が得られた。
論文 参考訳(メタデータ) (2024-03-07T10:05:09Z) - A comparison between Recurrent Neural Networks and classical machine
learning approaches In Laser induced breakdown spectroscopy [0.8399688944263843]
リカレントニューラルネットワークは、異なるノード間の接続を確立するニューラルネットワークのクラスである。
レーザ誘起分解分光法(LIBS)は、異なるリカレントニューラルネットワークアーキテクチャによるアルミニウム合金の定量分析に用いられている。
論文 参考訳(メタデータ) (2023-04-16T08:26:11Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - Bayesian Neural Network Language Modeling for Speech Recognition [59.681758762712754]
長期記憶リカレントニューラルネットワーク(LSTM-RNN)とトランスフォーマーで表される最先端のニューラルネットワーク言語モデル(NNLM)は非常に複雑になりつつある。
本稿では,LSTM-RNN と Transformer LM の基盤となる不確実性を考慮するために,ベイズ学習フレームワークの全体構造を提案する。
論文 参考訳(メタデータ) (2022-08-28T17:50:19Z) - Accurate Discharge Coefficient Prediction of Streamlined Weirs by
Coupling Linear Regression and Deep Convolutional Gated Recurrent Unit [2.4475596711637433]
本研究では,CFDシミュレーションに代わるデータ駆動モデリング手法を提案する。
提案した3層階層型DLアルゴリズムは,後続の2つのGRUレベルを結合した畳み込み層で構成されており,LR法とハイブリダイゼーションすることで,誤差の低減につながることがわかった。
論文 参考訳(メタデータ) (2022-04-12T01:59:36Z) - Mixed Precision Low-bit Quantization of Neural Network Language Models
for Speech Recognition [67.95996816744251]
長期間のメモリリカレントニューラルネットワーク(LSTM-RNN)とトランスフォーマーで表される最先端言語モデル(LM)は、実用アプリケーションではますます複雑で高価なものになりつつある。
現在の量子化法は、均一な精度に基づいており、量子化誤差に対するLMの異なる部分での様々な性能感度を考慮できない。
本稿では,新しい混合精度ニューラルネットワークLM量子化法を提案する。
論文 参考訳(メタデータ) (2021-11-29T12:24:02Z) - Bayesian Transformer Language Models for Speech Recognition [59.235405107295655]
トランスフォーマーで表現される最先端のニューラルネットワークモデル(LM)は非常に複雑である。
本稿では,トランスフォーマーLM推定のためのベイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-09T10:55:27Z) - Multi-Sample Online Learning for Probabilistic Spiking Neural Networks [43.8805663900608]
スパイキングニューラルネットワーク(SNN)は、推論と学習のための生物学的脳の効率の一部をキャプチャする。
本稿では,一般化予測最大化(GEM)に基づくオンライン学習ルールを提案する。
標準ニューロモルフィックデータセットにおける構造化された出力記憶と分類実験の結果,ログの類似性,精度,キャリブレーションの点で大きな改善が見られた。
論文 参考訳(メタデータ) (2020-07-23T10:03:58Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。