論文の概要: An Order-Invariant and Interpretable Hierarchical Dilated Convolution
Neural Network for Chemical Fault Detection and Diagnosis
- arxiv url: http://arxiv.org/abs/2302.06243v1
- Date: Mon, 13 Feb 2023 10:28:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-14 15:56:07.369284
- Title: An Order-Invariant and Interpretable Hierarchical Dilated Convolution
Neural Network for Chemical Fault Detection and Diagnosis
- Title(参考訳): 化学故障検出・診断のための秩序不変かつ解釈可能な階層型畳み込みニューラルネットワーク
- Authors: Mengxuan Li, Peng Peng, Min Wang, Hongwei Wang
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、化学故障検出および診断タスクにおける多くの成功例を持つ、人気のあるディープラーニングアルゴリズムである。
本稿では,命令不変かつ解釈可能な階層型畳み込みニューラルネットワーク(HDLCNN)を提案する。
提案手法は,特徴量の定量化のためのSHAP値を含むことにより,解釈可能性を提供する。
- 参考スコア(独自算出の注目度): 7.226239130399725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fault detection and diagnosis is significant for reducing maintenance costs
and improving health and safety in chemical processes. Convolution neural
network (CNN) is a popular deep learning algorithm with many successful
applications in chemical fault detection and diagnosis tasks. However,
convolution layers in CNN are very sensitive to the order of features, which
can lead to instability in the processing of tabular data. Optimal order of
features result in better performance of CNN models but it is expensive to seek
such optimal order. In addition, because of the encapsulation mechanism of
feature extraction, most CNN models are opaque and have poor interpretability,
thus failing to identify root-cause features without human supervision. These
difficulties inevitably limit the performance and credibility of CNN methods.
In this paper, we propose an order-invariant and interpretable hierarchical
dilated convolution neural network (HDLCNN), which is composed by feature
clustering, dilated convolution and the shapley additive explanations (SHAP)
method. The novelty of HDLCNN lies in its capability of processing tabular data
with features of arbitrary order without seeking the optimal order, due to the
ability to agglomerate correlated features of feature clustering and the large
receptive field of dilated convolution. Then, the proposed method provides
interpretability by including the SHAP values to quantify feature contribution.
Therefore, the root-cause features can be identified as the features with the
highest contribution. Computational experiments are conducted on the Tennessee
Eastman chemical process benchmark dataset. Compared with the other methods,
the proposed HDLCNN-SHAP method achieves better performance on processing
tabular data with features of arbitrary order, detecting faults, and
identifying the root-cause features.
- Abstract(参考訳): 故障の検出と診断は、メンテナンスコストの削減と化学プロセスにおける健康と安全性の改善に重要である。
畳み込みニューラルネットワーク(CNN)は、化学故障検出および診断タスクにおける多くの成功例を持つ、人気のあるディープラーニングアルゴリズムである。
しかし、cnnの畳み込み層は特徴の順序に非常に敏感であり、表データの処理が不安定になる可能性がある。
特徴の最適順序はCNNモデルの優れた性能をもたらすが、そのような最適順序を求めるのは高価である。
加えて、特徴抽出のカプセル化機構のため、ほとんどのcnnモデルは不透明であり、解釈性に乏しいため、人間の監督なしに根本原因の特徴を識別できない。
これらの困難はCNN手法の性能と信頼性を必然的に制限する。
本稿では,特徴クラスタリング,拡張畳み込み,シェープな加法的説明(SHAP)法によって構成される,秩序不変かつ解釈可能な階層型畳み込みニューラルネットワーク(HDLCNN)を提案する。
HDLCNNの新規性は、特徴クラスタリングの相関した特徴と拡張畳み込みの大きな受容領域を集約する能力のため、最適な順序を求めることなく任意の順序で表データを処理する能力にある。
提案手法は,特徴量の定量化のためのSHAP値を含め,解釈可能性を提供する。
したがって、根本原因の特徴を最も貢献度の高い特徴と特定することができる。
計算実験はテネシー・イーストマン化学プロセスベンチマークデータセット上で実施される。
hdlcnn-shap法は他の手法と比較して任意の順序の特徴、故障の検出、根本原因の特徴の同定により、表データを処理する際の優れた性能を実現する。
関連論文リスト
- Learning local discrete features in explainable-by-design convolutional neural networks [0.0]
本稿では,側方抑制機構に基づくCNN(Design-by-Design Convolutional Neural Network)を提案する。
このモデルは、残留または高密度のスキップ接続を持つ高精度CNNである予測器で構成されている。
観測を収集し,直接確率を計算することにより,隣接するレベルのモチーフ間の因果関係を説明することができる。
論文 参考訳(メタデータ) (2024-10-31T18:39:41Z) - Hyperspectral Image Classification Based on Faster Residual Multi-branch Spiking Neural Network [6.166929138912052]
本稿では,HSI分類タスクのための漏洩統合火災ニューロンモデルに基づくスパイキングニューラルネットワーク(SNN)を構築する。
SNN-SWMRでは、タイムステップの約84%、トレーニング時間、テストタイムの約63%と70%を同じ精度で削減する必要がある。
論文 参考訳(メタデータ) (2024-09-18T00:51:01Z) - Unveiling the Power of Sparse Neural Networks for Feature Selection [60.50319755984697]
スパースニューラルネットワーク(SNN)は、効率的な特徴選択のための強力なツールとして登場した。
動的スパーストレーニング(DST)アルゴリズムで訓練されたSNNは、平均して50%以上のメモリと55%以上のFLOPを削減できることを示す。
以上の結果から,DSTアルゴリズムで訓練したSNNによる特徴選択は,平均して50ドル以上のメモリと55%のFLOPを削減できることがわかった。
論文 参考訳(メタデータ) (2024-08-08T16:48:33Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization [73.80101701431103]
線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
論文 参考訳(メタデータ) (2023-04-17T14:23:43Z) - Do deep neural networks have an inbuilt Occam's razor? [1.1470070927586016]
構造データとOccam's razor-likeインダクティブバイアスが組み合わさった単純な関数に対する構造データは、複雑さを伴う関数の指数的成長に反することを示す。
この分析により、構造データと(コルモゴロフ)単純関数に対するOccam's razor-likeインダクティブバイアスが組み合わさって、複雑さを伴う関数の指数的成長に対抗できるほど強いことがDNNの成功の鍵であることが明らかになった。
論文 参考訳(メタデータ) (2023-04-13T16:58:21Z) - Non-Gradient Manifold Neural Network [79.44066256794187]
ディープニューラルネットワーク(DNN)は通常、勾配降下による最適化に数千のイテレーションを要します。
非次最適化に基づく新しい多様体ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T06:39:13Z) - CDiNN -Convex Difference Neural Networks [0.8122270502556374]
reluアクティベーション関数を持つニューラルネットワークは、普遍関数近似が非スムース関数として関数マッピングを学ぶことが示されている。
ICNNと呼ばれる新しいニューラルネットワークアーキテクチャは、凸入力として出力を学習する。
論文 参考訳(メタデータ) (2021-03-31T17:31:16Z) - Online Limited Memory Neural-Linear Bandits with Likelihood Matching [53.18698496031658]
本研究では,探索学習と表現学習の両方が重要な役割を果たす課題を解決するために,ニューラルネットワークの帯域について検討する。
破滅的な忘れ込みに対して耐性があり、完全にオンラインである可能性の高いマッチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-07T14:19:07Z) - Supervised Learning for Non-Sequential Data: A Canonical Polyadic
Decomposition Approach [85.12934750565971]
特徴相互作用の効率的なモデリングは、非順序的タスクに対する教師あり学習の基盤となる。
この問題を緩和するため、モデルパラメータをテンソルとして暗黙的に表現することが提案されている。
表現性を向上するため,任意の高次元特徴ベクトルに特徴写像を適用できるようにフレームワークを一般化する。
論文 参考訳(メタデータ) (2020-01-27T22:38:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。