論文の概要: Feature Engineering and Classification Models for Partial Discharge in
Power Transformers
- arxiv url: http://arxiv.org/abs/2210.12216v1
- Date: Fri, 21 Oct 2022 19:51:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 15:06:37.641728
- Title: Feature Engineering and Classification Models for Partial Discharge in
Power Transformers
- Title(参考訳): 変圧器部分放電の特徴工学と分類モデル
- Authors: Jonathan Wang, Kesheng Wu, Alex Sim, Seongwook Hwangbo
- Abstract要約: 電源変圧器は部分放電(PD)イベントのために監視されるが、これは変圧器故障の兆候である。
私たちのゴールは、PDをコロナ、浮動小数点、粒子、またはヴォイドに分類することです。
私たちは、PDを高精度に分類するために使用できる、少数の機能セットを作成します。
- 参考スコア(独自算出の注目度): 4.153804257347221
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To ensure reliability, power transformers are monitored for partial discharge
(PD) events, which are symptoms of transformer failure. Since failures can have
catastrophic cascading consequences, it is critical to preempt them as early as
possible. Our goal is to classify PDs as corona, floating, particle, or void,
to gain an understanding of the failure location. Using phase resolved PD
signal data, we create a small set of features, which can be used to classify
PDs with high accuracy. This set of features consists of the total magnitude,
the maximum magnitude, and the length of the longest empty band. These features
represent the entire signal and not just a single phase, so the feature set has
a fixed size and is easily comprehensible. With both Random Forest and SVM
classification methods, we attain a 99% classification accuracy, which is
significantly higher than classification using phase based feature sets such as
phase magnitude. Furthermore, we develop a stacking ensemble to combine several
classification models, resulting in a superior model that outperforms existing
methods in both accuracy and variance.
- Abstract(参考訳): 信頼性を確保するため、変圧器故障の症状である部分放電(PD)イベントに対して電力変換器が監視される。
障害は破滅的なカスケードを引き起こす可能性があるため、できるだけ早く先延ばしすることが重要である。
我々の目標は、PDをコロナ、フローティング、粒子、またはヴォイドに分類し、故障箇所の理解を得ることです。
位相分解されたPD信号データを用いて、PDを高精度に分類できる小さな特徴セットを作成する。
この特徴は、全等級、最大等級、最長空バンドの長さからなる。
これらの特徴は単一の位相ではなく信号全体を表すため、特徴集合は固定サイズであり、容易に理解することができる。
ランダムフォレスト法とSVM分類法の両方で99%の分類精度が得られ、位相等級などの位相ベース特徴集合を用いた分類よりもかなり高い値が得られる。
さらに,複数の分類モデルを組み合わせた積み重ねアンサンブルを開発し,精度と分散性の両方で既存手法より優れた性能を示す。
関連論文リスト
- PIDformer: Transformer Meets Control Theory [28.10913642120948]
我々は、そのソリューションのスムーズさを本質的に促進する自律的状態空間モデルとして自己意識を公表する。
モデルに参照点を持つPID(Proportional-Integral-Derivative)クローズドループフィードバック制御システムを導入し,ロバスト性や表現能力の向上を図る。
この制御フレームワークにより、新しい変換器のクラス、PID制御変換器(PIDformer)を導出する。
論文 参考訳(メタデータ) (2024-02-25T05:04:51Z) - Domain Generalization with Vital Phase Augmentation [11.114064837770517]
ディープニューラルネットワークは画像分類において顕著な性能を示している。
しかし, 入力データの劣化により性能は著しく低下した。
本研究では, クリーンデータと破損データの両方の性能向上を図った提案手法の実験的評価を行った。
論文 参考訳(メタデータ) (2023-12-27T07:35:17Z) - SCHEME: Scalable Channer Mixer for Vision Transformers [59.12372477493569]
視覚変換器は多くの視覚タスクにおける印象的な性能のために大きな注目を集めている。
特徴混合が高密度接続に取って代わり,これをブロック対角構造で確認できるかどうかを検討した。
画像分類、オブジェクト検出、セマンティックセグメンテーション(セグメンテーション)の実験は、ViTのバックボーンが異なるが、確実に精度が向上することを示した。
論文 参考訳(メタデータ) (2023-12-01T08:22:34Z) - CARD: Channel Aligned Robust Blend Transformer for Time Series
Forecasting [50.23240107430597]
本稿では,CARD(Channel Aligned Robust Blend Transformer)という特殊なトランスを設計する。
まず、CARDはチャネルに沿ったアテンション構造を導入し、信号間の時間的相関をキャプチャする。
第二に、マルチスケール知識を効率的に活用するために、異なる解像度のトークンを生成するトークンブレンドモジュールを設計する。
第3に,潜在的な過度な問題を軽減するため,時系列予測のためのロバストな損失関数を導入する。
論文 参考訳(メタデータ) (2023-05-20T05:16:31Z) - Efficient Mixed-Type Wafer Defect Pattern Recognition Using Compact
Deformable Convolutional Transformers [0.0]
混合型DPRは, 空間的特徴の変化, 欠陥の不確かさ, 存在する欠陥の数により, 単型DPRよりも複雑である。
本稿では, 欠陥数と欠陥の種類を正確に予測する, コンパクトな変形可能な畳み込み変圧器(DC Transformer)を提案する。
実験結果から,DCトランスフォーマーは単型と混合型の両方の欠陥を認識するのに極めて優れた性能を示した。
論文 参考訳(メタデータ) (2023-03-24T06:24:07Z) - Fault diagnosis for three-phase PWM rectifier based on deep feedforward
network with transient synthetic features [0.0]
過渡的な合成特徴を持つディープフィードフォワードネットワークに基づく断層診断手法を提案する。
平均断層診断精度は、過渡的な合成断層データに対して97.85%に達する。
オンライン断層診断実験により,本手法が故障IGBTを正確に検出できることが判明した。
論文 参考訳(メタデータ) (2022-11-01T02:32:20Z) - The Lazy Neuron Phenomenon: On Emergence of Activation Sparsity in
Transformers [59.87030906486969]
本稿では,Transformer アーキテクチャを用いた機械学習モデルにおいて,アクティベーションマップが疎いという興味深い現象について考察する。
本稿では, 自然言語処理と視覚処理の両方において, スパーシリティが顕著な現象であることを示す。
本稿では,変換器のFLOP数を大幅に削減し,効率を向上する手法について論じる。
論文 参考訳(メタデータ) (2022-10-12T15:25:19Z) - Transformer Uncertainty Estimation with Hierarchical Stochastic
Attention [8.95459272947319]
本稿では,変圧器に不確実性推定機能を持たせるための新しい手法を提案する。
これは、価値と学習可能なセントロイドのセットに付随する階層的な自己注意を学ぶことで達成される。
我々は、ドメイン内(ID)とドメイン外(OOD)の両方のデータセットを用いて、2つのテキスト分類タスクでモデルを実証的に評価する。
論文 参考訳(メタデータ) (2021-12-27T16:43:31Z) - Meta Learning Low Rank Covariance Factors for Energy-Based Deterministic
Uncertainty [58.144520501201995]
ニューラルネットワーク層のBi-Lipschitz正規化は、各レイヤの特徴空間におけるデータインスタンス間の相対距離を保存する。
注意セットエンコーダを用いて,タスク固有の共分散行列を効率的に構築するために,対角的,対角的,低ランクな要素のメタ学習を提案する。
また,最終的な予測分布を達成するために,スケールしたエネルギーを利用する推論手法を提案する。
論文 参考訳(メタデータ) (2021-10-12T22:04:19Z) - Efficient pre-training objectives for Transformers [84.64393460397471]
本研究はトランスフォーマーモデルにおける高効率事前学習目標について検討する。
マスクトークンの除去と損失時のアウトプット全体の考慮が,パフォーマンス向上に不可欠な選択であることを証明する。
論文 参考訳(メタデータ) (2021-04-20T00:09:37Z) - Bayesian Transformer Language Models for Speech Recognition [59.235405107295655]
トランスフォーマーで表現される最先端のニューラルネットワークモデル(LM)は非常に複雑である。
本稿では,トランスフォーマーLM推定のためのベイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-09T10:55:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。