論文の概要: Deep Compression of Neural Networks for Fault Detection on Tennessee
Eastman Chemical Processes
- arxiv url: http://arxiv.org/abs/2101.06993v1
- Date: Mon, 18 Jan 2021 10:53:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-27 13:01:03.140676
- Title: Deep Compression of Neural Networks for Fault Detection on Tennessee
Eastman Chemical Processes
- Title(参考訳): テネシー・イーストマン化学プロセスにおける故障検出のためのニューラルネットワークの深部圧縮
- Authors: Mingxuan Li, Yuanxun Shao
- Abstract要約: 計算負担を軽減するために3つの深部圧縮技術を適用した。
最も優れた結果として、3つのテクニックを全て適用し、モデルのサイズを91.5%削減し、精度は94%以上である。
- 参考スコア(独自算出の注目度): 2.297079626504224
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial neural network has achieved the state-of-art performance in fault
detection on the Tennessee Eastman process, but it often requires enormous
memory to fund its massive parameters. In order to implement online real-time
fault detection, three deep compression techniques (pruning, clustering, and
quantization) are applied to reduce the computational burden. We have
extensively studied 7 different combinations of compression techniques, all
methods achieve high model compression rates over 64% while maintain high fault
detection accuracy. The best result is applying all three techniques, which
reduces the model sizes by 91.5% and remains a high accuracy over 94%. This
result leads to a smaller storage requirement in production environments, and
makes the deployment smoother in real world.
- Abstract(参考訳): 人工ニューラルネットワークはテネシー・イーストマンプロセスにおいて最先端のフォールト検出性能を達成したが、膨大なパラメータに資金を提供するには膨大なメモリを必要とすることが多い。
オンラインリアルタイム故障検出を実現するために,3つの深部圧縮技術(プルーニング,クラスタリング,量子化)を適用し,計算負担を軽減する。
我々は7種類の圧縮技術の組み合わせを広範囲に研究し、全ての手法が高いモデル圧縮率を64%以上達成し、高い故障検出精度を維持した。
最も優れた結果として、3つのテクニックを全て適用し、モデルのサイズを91.5%削減し、精度は94%以上である。
これにより、本番環境でのストレージ要件が小さくなり、実環境におけるデプロイメントがよりスムーズになる。
関連論文リスト
- Edge AI: Evaluation of Model Compression Techniques for Convolutional Neural Networks [0.0]
本研究は,CIFAR-10データセットを用いた画像分類タスクにおけるConvNeXtモデルの圧縮手法を評価する。
その結果, モデルサイズが有意に減少し, 構造化プルーニング技術により最大75%の削減が達成された。
動的量子化はパラメータ数の最大95%の削減を達成する。
論文 参考訳(メタデータ) (2024-09-02T11:48:19Z) - Towards efficient deep autoencoders for multivariate time series anomaly
detection [0.8681331155356999]
本稿では,3つの要素を含むディープオートエンコーダの圧縮手法を提案する。
第一に、プルーニングは、高速な探索プロセスにより、破滅的な精度の低下を防止しつつ、重量を減らす。
第二に、線形および非線形量子化は、各重みごとにビット数を減らし、モデルの複雑さを減少させる。
論文 参考訳(メタデータ) (2024-03-04T19:22:09Z) - CompactifAI: Extreme Compression of Large Language Models using Quantum-Inspired Tensor Networks [1.5199992713356987]
本稿では、量子インスパイアされたネットワークを用いた革新的な圧縮手法であるCompactifAIを紹介する。
我々の手法は万能であり、他の圧縮技術で実装することができる。
ベンチマークとして、CompactifAIと量子化の組み合わせにより、LlaMA 7Bの93%のメモリサイズを削減できることを示す。
論文 参考訳(メタデータ) (2024-01-25T11:45:21Z) - Advancing The Rate-Distortion-Computation Frontier For Neural Image
Compression [6.167676495563641]
速度歪み計算による研究によると、浮動小数点演算(FLOP)も実行時も自力で神経圧縮法を正確にランク付けするには不十分である。
我々は、BPGよりも23.1%の節率で最先端のRD性能が得られる新しいニューラル圧縮アーキテクチャを同定する。
論文 参考訳(メタデータ) (2023-09-26T19:47:31Z) - Learning Accurate Performance Predictors for Ultrafast Automated Model
Compression [86.22294249097203]
フレキシブルネットワーク展開のための超高速自動モデル圧縮フレームワークSeerNetを提案する。
本手法は,探索コストを大幅に削減した競合精度・複雑度トレードオフを実現する。
論文 参考訳(メタデータ) (2023-04-13T10:52:49Z) - Pushing the Limits of Asynchronous Graph-based Object Detection with
Event Cameras [62.70541164894224]
低計算を維持しながら、そのようなモデルの深さと複雑さを拡大できるアーキテクチャ選択をいくつか導入する。
我々の手法は、密度の高いグラフニューラルネットワークよりも3.7倍高速に動作し、前方通過はわずか8.4msである。
論文 参考訳(メタデータ) (2022-11-22T15:14:20Z) - Towards Compact CNNs via Collaborative Compression [166.86915086497433]
チャネルプルーニングとテンソル分解を結合してCNNモデルを圧縮する協調圧縮方式を提案する。
52.9%のFLOPを削減し、ResNet-50で48.4%のパラメータを削除しました。
論文 参考訳(メタデータ) (2021-05-24T12:07:38Z) - ScaleCom: Scalable Sparsified Gradient Compression for
Communication-Efficient Distributed Training [74.43625662170284]
最先端プラットフォーム上でのDeep Neural Networks(DNN)の大規模分散トレーニングは,通信の厳しい制約が期待できる。
本稿では,学習者間の勾配分布の類似性を活用した新しい圧縮手法を提案する。
実験により,scalecomのオーバーヘッドは小さく,勾配トラフィックを直接低減し,高い圧縮率(65~400倍)と優れたスケーラビリティ(64名までの学習者,8~12倍のバッチサイズ)を提供する。
論文 参考訳(メタデータ) (2021-04-21T02:22:10Z) - An Efficient Statistical-based Gradient Compression Technique for
Distributed Training Systems [77.88178159830905]
Sparsity-Inducing Distribution-based Compression (SIDCo) は閾値に基づくスペーシフィケーションスキームであり、DGCと同等のしきい値推定品質を享受する。
SIDCoは,非圧縮ベースライン,Topk,DGC圧縮機と比較して,最大で41:7%,7:6%,1:9%の速度でトレーニングを高速化する。
論文 参考訳(メタデータ) (2021-01-26T13:06:00Z) - ALF: Autoencoder-based Low-rank Filter-sharing for Efficient
Convolutional Neural Networks [63.91384986073851]
オートエンコーダを用いた低ランクフィルタ共有技術(ALF)を提案する。
ALFは、ネットワークパラメータの70%、オペレーションの61%、実行時間の41%を削減し、精度の低下を最小限にしている。
論文 参考訳(メタデータ) (2020-07-27T09:01:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。