論文の概要: MOLA: Enhancing Industrial Process Monitoring Using Multi-Block Orthogonal Long Short-Term Memory Autoencoder
- arxiv url: http://arxiv.org/abs/2410.07508v1
- Date: Thu, 10 Oct 2024 00:49:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-31 16:46:37.140645
- Title: MOLA: Enhancing Industrial Process Monitoring Using Multi-Block Orthogonal Long Short-Term Memory Autoencoder
- Title(参考訳): MOLA:マルチブロック直交長短期記憶オートエンコーダを用いた産業プロセス監視の強化
- Authors: Fangyuan Ma, Cheng Ji, Jingde Wang, Wei Sun, Xun Tang, Zheyu Jiang,
- Abstract要約: 産業プロセスの高精度かつ信頼性の高い故障検出を行うために,MOLA: Multi-block Orthogonal Long short-term memory Autoencoder パラダイムを導入する。
本稿では,プロセス変数を専門的なプロセス知識を活用することで,複数のブロックに分類するマルチブロック監視構造を提案する。
テネシー・イーストマン・プロセスに適用することで,MOLAフレームワークの有効性と有効性を示す。
- 参考スコア(独自算出の注目度): 3.7028696448588487
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this work, we introduce MOLA: a Multi-block Orthogonal Long short-term memory Autoencoder paradigm, to conduct accurate, reliable fault detection of industrial processes. To achieve this, MOLA effectively extracts dynamic orthogonal features by introducing an orthogonality-based loss function to constrain the latent space output. This helps eliminate the redundancy in the features identified, thereby improving the overall monitoring performance. On top of this, a multi-block monitoring structure is proposed, which categorizes the process variables into multiple blocks by leveraging expert process knowledge about their associations with the overall process. Each block is associated with its specific Orthogonal Long short-term memory Autoencoder model, whose extracted dynamic orthogonal features are monitored by distance-based Hotelling's $T^2$ statistics and quantile-based cumulative sum (CUSUM) designed for multivariate data streams that are nonparametric, heterogeneous in nature. Compared to having a single model accounting for all process variables, such a multi-block structure improves the overall process monitoring performance significantly, especially for large-scale industrial processes. Finally, we propose an adaptive weight-based Bayesian fusion (W-BF) framework to aggregate all block-wise monitoring statistics into a global statistic that we monitor for faults, with the goal of improving fault detection speed by assigning weights to blocks based on the sequential order where alarms are raised. We demonstrate the efficiency and effectiveness of our MOLA framework by applying it to the Tennessee Eastman Process and comparing the performance with various benchmark methods.
- Abstract(参考訳): 本研究では, 産業プロセスの高精度かつ信頼性の高い故障検出を行うために, MOLA: a Multi-block Orthogonal Long short-term memory Autoencoder パラダイムを導入する。
これを実現するため、MOLAは、遅延空間の出力を制限するために直交に基づく損失関数を導入することにより、動的直交特徴を効果的に抽出する。
これにより、特定された機能の冗長性を排除し、全体的な監視性能を改善することができる。
この上に、プロセス変数を複数のブロックに分類するマルチブロック監視構造が提案され、プロセス全体の関連性に関する専門家のプロセス知識を活用することで、プロセス変数を複数のブロックに分類する。
各ブロックは、その特定の直交長短期記憶(Orthogonal Long short-term memory)オートエンコーダモデルと関連付けられ、抽出された動的直交特性は、非パラメトリックで不均一な多変量データストリーム用に設計された距離ベースのHotellingの統計値と量子ベースの累積和(CUSUM)によって監視される。
全てのプロセス変数について単一のモデルを持つのに比べ、このようなマルチブロック構造は、特に大規模産業プロセスにおいて、プロセス全体の監視性能を大幅に改善する。
最後に,適応重みに基づくベイズ核融合(W-BF)フレームワークを提案し,アラームが上昇する順序に基づいて重みをブロックに割り当てることにより,異常検出速度を改善することを目的として,すべてのブロック単位の監視統計データをグローバルな統計に集約する。
我々は、テネシー・イーストマン・プロセスに適用し、その性能を様々なベンチマーク手法と比較することにより、MOLAフレームワークの有効性と効果を実証する。
関連論文リスト
- Q-VLM: Post-training Quantization for Large Vision-Language Models [73.19871905102545]
本稿では,大規模視覚言語モデル(LVLM)の学習後量子化フレームワークを提案する。
視覚言語モデル全体の離散化誤差に大きな影響を及ぼす層間依存関係を抽出し、この依存関係を最適な量子化戦略に組み込む。
実験の結果,提案手法はメモリを2.78倍圧縮し,出力速度を約13B LLaVAモデルで1.44倍向上させることができた。
論文 参考訳(メタデータ) (2024-10-10T17:02:48Z) - Sparser is Faster and Less is More: Efficient Sparse Attention for Long-Range Transformers [58.5711048151424]
SPARSEK Attention(SPARSEK Attention)は、計算およびメモリ障害を克服するために設計された、新しいスパースアテンション機構である。
提案手法では,各クエリに対して一定数のKVペアを選択するために,スコアリングネットワークと差別化可能なトップkマスク演算子であるSPARSEKを統合する。
実験結果から,SPARSEK注意は従来のスパースアテンション法よりも優れていた。
論文 参考訳(メタデータ) (2024-06-24T15:55:59Z) - Tender: Accelerating Large Language Models via Tensor Decomposition and Runtime Requantization [0.6445087473595953]
大規模言語モデル(LLM)は、機械学習における様々なタスクにおいて優れたパフォーマンスを示す。
LLM推論のデプロイは、高い計算とメモリ要求のために問題となる。
我々は,低精度でLLM推論を効率的に展開できるアルゴリズム-ハードウェア共設計ソリューションであるテンダーを提案する。
論文 参考訳(メタデータ) (2024-06-16T09:51:55Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - Multi-Agent Reinforcement Learning for Microprocessor Design Space
Exploration [71.95914457415624]
マイクロプロセッサアーキテクトは、高性能でエネルギー効率の追求において、ドメイン固有のカスタマイズにますます頼っている。
この問題に対処するために,Multi-Agent RL (MARL) を利用した別の定式化を提案する。
評価の結果,MARLの定式化は単エージェントRLのベースラインよりも一貫して優れていた。
論文 参考訳(メタデータ) (2022-11-29T17:10:24Z) - End-to-End Multi-Object Detection with a Regularized Mixture Model [26.19278003378703]
近年のエンド・ツー・エンド多目的検出器は手作りのプロセスを取り除き、推論パイプラインを単純化している。
本稿では,NLL(負対数類似度)と正規化項(正則化項)の2項のみからなるエンドツーエンドの多対象検出器を訓練するための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-18T04:20:23Z) - Adaptive Multi-Resolution Attention with Linear Complexity [18.64163036371161]
本稿では,AdaMRA(Adaptive Multi-Resolution Attention)という新しい構造を提案する。
我々はマルチレゾリューション・マルチヘッド・アテンション・メカニズムを活用し、アテンションヘッドが粗い方法で長距離コンテキスト情報をキャプチャすることを可能にする。
科学コミュニティによるAdaMRAの利用を促進するため、コード実装を一般公開する予定である。
論文 参考訳(メタデータ) (2021-08-10T23:17:16Z) - Modular Multi Target Tracking Using LSTM Networks [0.0]
本稿では,センサ計測を用いた航空機目標追尾システムに対する自由端対端手法を提案する。
提案したモジュールブロックは、多数のトラッキングアプリケーションで独立して訓練および使用することができる。
論文 参考訳(メタデータ) (2020-11-16T15:58:49Z) - Learning Robust State Abstractions for Hidden-Parameter Block MDPs [55.31018404591743]
我々は、ブロックMDPにインスパイアされた堅牢な状態抽象化を実現するために、HiP-MDP設定からの共通構造の概念を活用する。
マルチタスク強化学習 (MTRL) とメタ強化学習 (Meta-RL) の両方のための新しいフレームワークのインスタンス化を導出する。
論文 参考訳(メタデータ) (2020-07-14T17:25:27Z) - Distributed Optimization over Block-Cyclic Data [48.317899174302305]
本研究では,クライアントの非平衡データと非等化データをブロック循環構造とするフェデレート学習の基礎となる実践的データ特性について考察する。
マルチモデル並列SGD(MM-PSGD)とマルチチェーン並列SGD(MC-PSGD)という2つの新しい分散最適化アルゴリズムを提案する。
提案アルゴリズムは, 従来のフェデレーション平均化アルゴリズムよりも精度が高く, 臨界パラメータの分散に対するロバスト性を保っている。
論文 参考訳(メタデータ) (2020-02-18T09:47:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。