論文の概要: Feature Engineering and Classification Models for Partial Discharge in
Power Transformers
- arxiv url: http://arxiv.org/abs/2210.12216v1
- Date: Fri, 21 Oct 2022 19:51:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 15:06:37.641728
- Title: Feature Engineering and Classification Models for Partial Discharge in
Power Transformers
- Title(参考訳): 変圧器部分放電の特徴工学と分類モデル
- Authors: Jonathan Wang, Kesheng Wu, Alex Sim, Seongwook Hwangbo
- Abstract要約: 電源変圧器は部分放電(PD)イベントのために監視されるが、これは変圧器故障の兆候である。
私たちのゴールは、PDをコロナ、浮動小数点、粒子、またはヴォイドに分類することです。
私たちは、PDを高精度に分類するために使用できる、少数の機能セットを作成します。
- 参考スコア(独自算出の注目度): 4.153804257347221
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To ensure reliability, power transformers are monitored for partial discharge
(PD) events, which are symptoms of transformer failure. Since failures can have
catastrophic cascading consequences, it is critical to preempt them as early as
possible. Our goal is to classify PDs as corona, floating, particle, or void,
to gain an understanding of the failure location. Using phase resolved PD
signal data, we create a small set of features, which can be used to classify
PDs with high accuracy. This set of features consists of the total magnitude,
the maximum magnitude, and the length of the longest empty band. These features
represent the entire signal and not just a single phase, so the feature set has
a fixed size and is easily comprehensible. With both Random Forest and SVM
classification methods, we attain a 99% classification accuracy, which is
significantly higher than classification using phase based feature sets such as
phase magnitude. Furthermore, we develop a stacking ensemble to combine several
classification models, resulting in a superior model that outperforms existing
methods in both accuracy and variance.
- Abstract(参考訳): 信頼性を確保するため、変圧器故障の症状である部分放電(PD)イベントに対して電力変換器が監視される。
障害は破滅的なカスケードを引き起こす可能性があるため、できるだけ早く先延ばしすることが重要である。
我々の目標は、PDをコロナ、フローティング、粒子、またはヴォイドに分類し、故障箇所の理解を得ることです。
位相分解されたPD信号データを用いて、PDを高精度に分類できる小さな特徴セットを作成する。
この特徴は、全等級、最大等級、最長空バンドの長さからなる。
これらの特徴は単一の位相ではなく信号全体を表すため、特徴集合は固定サイズであり、容易に理解することができる。
ランダムフォレスト法とSVM分類法の両方で99%の分類精度が得られ、位相等級などの位相ベース特徴集合を用いた分類よりもかなり高い値が得られる。
さらに,複数の分類モデルを組み合わせた積み重ねアンサンブルを開発し,精度と分散性の両方で既存手法より優れた性能を示す。
関連論文リスト
- Robust Fine-tuning of Zero-shot Models via Variance Reduction [56.360865951192324]
微調整ゼロショットモデルの場合、このデシドラトゥムは細調整モデルで、分布内(ID)と分布外(OOD)の両方で優れる。
トレードオフを伴わずに最適なIDとOODの精度を同時に達成できるサンプルワイズアンサンブル手法を提案する。
論文 参考訳(メタデータ) (2024-11-11T13:13:39Z) - t-READi: Transformer-Powered Robust and Efficient Multimodal Inference for Autonomous Driving [34.4792159427294]
t-READiは,マルチモーダルセンサデータの変動を考慮した適応型推論システムである。
平均推論精度を6%以上改善し、推論遅延を約15倍削減する。
論文 参考訳(メタデータ) (2024-10-13T06:53:58Z) - PIDformer: Transformer Meets Control Theory [28.10913642120948]
我々は、そのソリューションのスムーズさを本質的に促進する自律的状態空間モデルとして自己意識を公表する。
モデルに参照点を持つPID(Proportional-Integral-Derivative)クローズドループフィードバック制御システムを導入し,ロバスト性や表現能力の向上を図る。
この制御フレームワークにより、新しい変換器のクラス、PID制御変換器(PIDformer)を導出する。
論文 参考訳(メタデータ) (2024-02-25T05:04:51Z) - Domain Generalization with Vital Phase Augmentation [11.114064837770517]
ディープニューラルネットワークは画像分類において顕著な性能を示している。
しかし, 入力データの劣化により性能は著しく低下した。
本研究では, クリーンデータと破損データの両方の性能向上を図った提案手法の実験的評価を行った。
論文 参考訳(メタデータ) (2023-12-27T07:35:17Z) - SCHEME: Scalable Channel Mixer for Vision Transformers [52.605868919281086]
ビジョントランスフォーマーは多くの視覚タスクにおいて印象的なパフォーマンスを達成した。
チャネルミキサーや機能ミキシングブロック(FFNか)の研究は、はるかに少ない。
密度の高い接続は、より大きな膨張比をサポートする対角線ブロック構造に置き換えることができることを示す。
論文 参考訳(メタデータ) (2023-12-01T08:22:34Z) - Efficient Mixed-Type Wafer Defect Pattern Recognition Using Compact
Deformable Convolutional Transformers [0.0]
混合型DPRは, 空間的特徴の変化, 欠陥の不確かさ, 存在する欠陥の数により, 単型DPRよりも複雑である。
本稿では, 欠陥数と欠陥の種類を正確に予測する, コンパクトな変形可能な畳み込み変圧器(DC Transformer)を提案する。
実験結果から,DCトランスフォーマーは単型と混合型の両方の欠陥を認識するのに極めて優れた性能を示した。
論文 参考訳(メタデータ) (2023-03-24T06:24:07Z) - The Lazy Neuron Phenomenon: On Emergence of Activation Sparsity in
Transformers [59.87030906486969]
本稿では,Transformer アーキテクチャを用いた機械学習モデルにおいて,アクティベーションマップが疎いという興味深い現象について考察する。
本稿では, 自然言語処理と視覚処理の両方において, スパーシリティが顕著な現象であることを示す。
本稿では,変換器のFLOP数を大幅に削減し,効率を向上する手法について論じる。
論文 参考訳(メタデータ) (2022-10-12T15:25:19Z) - Meta Learning Low Rank Covariance Factors for Energy-Based Deterministic
Uncertainty [58.144520501201995]
ニューラルネットワーク層のBi-Lipschitz正規化は、各レイヤの特徴空間におけるデータインスタンス間の相対距離を保存する。
注意セットエンコーダを用いて,タスク固有の共分散行列を効率的に構築するために,対角的,対角的,低ランクな要素のメタ学習を提案する。
また,最終的な予測分布を達成するために,スケールしたエネルギーを利用する推論手法を提案する。
論文 参考訳(メタデータ) (2021-10-12T22:04:19Z) - Efficient pre-training objectives for Transformers [84.64393460397471]
本研究はトランスフォーマーモデルにおける高効率事前学習目標について検討する。
マスクトークンの除去と損失時のアウトプット全体の考慮が,パフォーマンス向上に不可欠な選択であることを証明する。
論文 参考訳(メタデータ) (2021-04-20T00:09:37Z) - Bayesian Transformer Language Models for Speech Recognition [59.235405107295655]
トランスフォーマーで表現される最先端のニューラルネットワークモデル(LM)は非常に複雑である。
本稿では,トランスフォーマーLM推定のためのベイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-09T10:55:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。