論文の概要: Unknown Health States Recognition With Collective Decision Based Deep
Learning Networks In Predictive Maintenance Applications
- arxiv url: http://arxiv.org/abs/2310.17670v1
- Date: Wed, 25 Oct 2023 08:24:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-30 16:10:30.362635
- Title: Unknown Health States Recognition With Collective Decision Based Deep
Learning Networks In Predictive Maintenance Applications
- Title(参考訳): 予測保守アプリケーションにおける集団決定に基づく深層学習ネットワークを用いた未知の健康状態認識
- Authors: Chuyue Lou and M. Amine Atoui
- Abstract要約: 本稿では,異なるCNNを対象とした集団決定フレームワークを提案する。
One-vs-Restネットワーク(OVRN)に基づいて、既知の状態と未知の状態を同時に分類する。
OVRNは、状態固有の識別機能を学び、異なるCNNに組み込まれた新しい異常サンプルを拒否する能力を高める。
- 参考スコア(独自算出の注目度): 1.0515439489916734
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: At present, decision making solutions developed based on deep learning (DL)
models have received extensive attention in predictive maintenance (PM)
applications along with the rapid improvement of computing power. Relying on
the superior properties of shared weights and spatial pooling, Convolutional
Neural Network (CNN) can learn effective representations of health states from
industrial data. Many developed CNN-based schemes, such as advanced CNNs that
introduce residual learning and multi-scale learning, have shown good
performance in health state recognition tasks under the assumption that all the
classes are known. However, these schemes have no ability to deal with new
abnormal samples that belong to state classes not part of the training set. In
this paper, a collective decision framework for different CNNs is proposed. It
is based on a One-vs-Rest network (OVRN) to simultaneously achieve
classification of known and unknown health states. OVRN learn state-specific
discriminative features and enhance the ability to reject new abnormal samples
incorporated to different CNNs. According to the validation results on the
public dataset of Tennessee Eastman Process (TEP), the proposed CNN-based
decision schemes incorporating OVRN have outstanding recognition ability for
samples of unknown heath states, while maintaining satisfactory accuracy on
known states. The results show that the new DL framework outperforms
conventional CNNs, and the one based on residual and multi-scale learning has
the best overall performance.
- Abstract(参考訳): 現在、ディープラーニング(DL)モデルに基づいて開発された意思決定ソリューションは、予測保守(PM)アプリケーションにおいて、計算能力の急速な向上とともに大きな注目を集めている。
共有重みと空間プールの優れた特性に基づいて、畳み込みニューラルネットワーク(CNN)は産業データから健康状態の効果的な表現を学習することができる。
残差学習やマルチスケール学習を導入した先進的なCNNのようなCNNベースのスキームの多くは、すべてのクラスが知られているという仮定の下で、健康状態認識タスクにおいて優れたパフォーマンスを示している。
しかし、これらのスキームはトレーニングセットの一部ではない状態クラスに属する新しい異常なサンプルを扱うことができない。
本稿では,異なるCNNを対象とした集団決定フレームワークを提案する。
One-vs-Restネットワーク(OVRN)に基づいて、既知の状態と未知の状態を同時に分類する。
OVRNは、状態固有の識別機能を学び、異なるCNNに組み込まれた新しい異常サンプルを拒否する能力を高める。
テネシー・イーストマン・プロセス(TEP)の公開データセットの検証結果によると、OVRNを組み込んだCNNベースの決定スキームは、未知のヒース状態のサンプルに対して優れた認識能力を有し、既知の状態の良好な精度を維持している。
その結果、新しいdlフレームワークは従来のcnnよりも優れており、残差学習とマルチスケール学習に基づくフレームワークは全体的なパフォーマンスが最高であることがわかった。
関連論文リスト
- BKDSNN: Enhancing the Performance of Learning-based Spiking Neural Networks Training with Blurred Knowledge Distillation [20.34272550256856]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューラルネットワークを模倣し、離散スパイクを介して情報を伝達する。
本研究は,静的およびニューロモルフィックなデータセット上でSNNをトレーニングするための最先端性能を実現する。
論文 参考訳(メタデータ) (2024-07-12T08:17:24Z) - Regularizing CNNs using Confusion Penalty Based Label Smoothing for Histopathology Images [7.659984194016969]
現代のCNNは過信され、現実世界のシナリオでのデプロイが困難になる。
本稿では,各クラスにおけるモデル混乱を他のクラスよりも重要視する,混乱ペナルティに基づく新たなLS手法を提案する。
我々は,この手法を用いて,広く知られているCNNアーキテクチャを用いた広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-03-16T10:25:49Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Can pruning improve certified robustness of neural networks? [106.03070538582222]
ニューラルネット・プルーニングはディープ・ニューラル・ネットワーク(NN)の実証的ロバスト性を向上させることができることを示す。
実験の結果,NNを適切に刈り取ることで,その精度を8.2%まで向上させることができることがわかった。
さらに,認証された宝くじの存在が,従来の密集モデルの標準および認証された堅牢な精度に一致することを観察する。
論文 参考訳(メタデータ) (2022-06-15T05:48:51Z) - Collective Decision of One-vs-Rest Networks for Open Set Recognition [0.0]
厳密で洗練された決定境界を設定することでOSRの性能を最大化できるという直感に基づく,シンプルなオープンセット認識(OSR)手法を提案する。
提案手法は, オーバージェネリゼーションを効果的に低減し, 最先端の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-03-18T13:06:46Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - Multi-Sample Online Learning for Probabilistic Spiking Neural Networks [43.8805663900608]
スパイキングニューラルネットワーク(SNN)は、推論と学習のための生物学的脳の効率の一部をキャプチャする。
本稿では,一般化予測最大化(GEM)に基づくオンライン学習ルールを提案する。
標準ニューロモルフィックデータセットにおける構造化された出力記憶と分類実験の結果,ログの類似性,精度,キャリブレーションの点で大きな改善が見られた。
論文 参考訳(メタデータ) (2020-07-23T10:03:58Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - One Versus all for deep Neural Network Incertitude (OVNNI)
quantification [12.734278426543332]
本稿では,データの疫学的不確実性を容易に定量化するための新しい手法を提案する。
本手法は,1つのクラス対他のクラス(OVA)を分類するために訓練されたDNNのアンサンブルの予測と,オール対オール(AVA)分類を実行するために訓練された標準DNNの予測とを混合して構成する。
論文 参考訳(メタデータ) (2020-06-01T14:06:12Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。