論文の概要、ライセンス

# (参考訳) テネシー・イーストマン化学プロセスにおける故障検出のためのニューラルネットワークの深部圧縮 [全文訳有]

Deep Compression of Neural Networks for Fault Detection on Tennessee Eastman Chemical Processes ( http://arxiv.org/abs/2101.06993v1 )

ライセンス: CC BY 4.0
Mingxuan Li, Yuanxun Shao(参考訳) 人工ニューラルネットワークはテネシー・イーストマンプロセスにおいて最先端のフォールト検出性能を達成したが、膨大なパラメータに資金を提供するには膨大なメモリを必要とすることが多い。 オンラインリアルタイム故障検出を実現するために,3つの深部圧縮技術(プルーニング,クラスタリング,量子化)を適用し,計算負担を軽減する。 我々は7種類の圧縮技術の組み合わせを広範囲に研究し、全ての手法が高いモデル圧縮率を64%以上達成し、高い故障検出精度を維持した。 最も優れた結果として、3つのテクニックを全て適用し、モデルのサイズを91.5%削減し、精度は94%以上である。 これにより、本番環境でのストレージ要件が小さくなり、実環境におけるデプロイメントがよりスムーズになる。

Artificial neural network has achieved the state-of-art performance in fault detection on the Tennessee Eastman process, but it often requires enormous memory to fund its massive parameters. In order to implement online real-time fault detection, three deep compression techniques (pruning, clustering, and quantization) are applied to reduce the computational burden. We have extensively studied 7 different combinations of compression techniques, all methods achieve high model compression rates over 64% while maintain high fault detection accuracy. The best result is applying all three techniques, which reduces the model sizes by 91.5% and remains a high accuracy over 94%. This result leads to a smaller storage requirement in production environments, and makes the deployment smoother in real world.
公開日: Mon, 18 Jan 2021 10:53:12 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Deep Compression of Neural Networks for Fault 障害に対するニューラルネットワークの深い圧縮 0.82
Detection on Tennessee Eastman Chemical テネシー州イーストマン化学の発見 0.74
Processes 1 2 0 2 プロセス 1 2 0 2 0.81
n a J 8 1 ] n a J 8 1 ] 0.85
G L . s c [ 1 v 3 9 9 6 0 G L。 sc [ 1 v 3 9 9 6 0 0.70
. 1 0 1 2 : v i X r a . 1 0 1 2 : v i X r a 0.85
Mingxuan Li Department of Computer Science 明xuan Li 計算機科学専攻 0.69
University of North Carolina at Chapel Hill ノースカロライナ大学チャペルヒル校 0.61
Chapel Hill, NC, USA mingxuan li@unc.edu Chapel Hill, NC, USA mingxuan li@unc.edu 1.00
* Yuanxun Shao Nuro Inc. ※元興舎王 Nuro Inc. 0.66
Mountain View, CA, USA アメリカ合衆国カリフォルニア州マウンテンビュー 0.79
yuanxun@gatech.edu yuanxun@gatech.edu 0.78
Artificial neural network has achieved the state-of-art performance in fault detection on the Tennessee Eastman process, but it often requires enormous memory to fund its massive parameters. 人工ニューラルネットワークはテネシー・イーストマンプロセスにおいて最先端のフォールト検出性能を達成したが、膨大なパラメータに資金を提供するには膨大なメモリを必要とすることが多い。 0.53
In order to implement online real-time fault detection, three deep compression techniques (pruning, clustering, and quantization) are applied to reduce the computational burden. オンラインリアルタイム故障検出を実現するために,3つの深部圧縮技術(プルーニング,クラスタリング,量子化)を適用し,計算負担を軽減する。 0.81
We have extensively studied 7 different combinations of compression techniques, all methods achieve high model compression rates over 64% while maintain high fault detection accuracy. 我々は7種類の圧縮技術の組み合わせを広範囲に研究し、全ての手法が高いモデル圧縮率を64%以上達成し、高い故障検出精度を維持した。 0.74
The best result is applying all three techniques, which reduces the model sizes by 91.5% and remains a high accuracy over 94%. 最も優れた結果として、3つのテクニックを全て適用し、モデルのサイズを91.5%削減し、精度は94%以上である。
訳抜け防止モード: 最良の結果は3つのテクニックを全て適用し モデルサイズを91.5 %削減し、94 %以上の精度を維持している。
0.76
This result leads to a smaller storage requirement in production environments, and makes the deployment smoother in real world. これにより、本番環境でのストレージ要件が小さくなり、実環境におけるデプロイメントがよりスムーズになる。 0.67
Abstract Deep Compression, Neural Networks, Fault Detection 概要 深部圧縮, ニューラルネットワーク, 故障検出 0.60
Index Terms I. INTRODUCTION Artificial Neural Network (ANN) is a powerful technique that can classify input data into predefined categories. 索引項 I 導入 人工ニューラルネットワーク(ANN)は、入力データを予め定義されたカテゴリに分類できる強力な技術である。 0.56
ANN has been successfully deployed in an enormous amount of real-life applications with superior results, including computer vision [1], natural language processing [2], autonomous driving [3]. ANNは、コンピュータビジョン[1]、自然言語処理[2]、自律運転[3]など、非常に優れた成果を上げながら、膨大な量の実生活アプリケーションにデプロイされてきました。
訳抜け防止モード: ANNは、非常に多くの実生活アプリケーションにデプロイされ、優れた結果が得られています。 コンピュータビジョン [1 ] 自然言語処理 [2 ] 自動運転[3]。
0.75
For a classification problem, input data is processed through a series of weight matrices, bias vectors, and nonlinear activation functions. 分類問題では、入力データは一連の重み行列、バイアスベクトル、非線形活性化関数によって処理される。 0.80
Following by a classifier, ANN eventually calculates a likelihood score for each category. 分類器に従って、ANNは最終的に各カテゴリの確率スコアを算出する。 0.72
During training, ANN maximizes the likelihood of the true category (or minimize the negative of this likelihood) for taring data sets via variants of stochastic gradient decent methods. トレーニング中、annは、確率勾配の適度な方法の変種を介してデータセットをターリングする真のカテゴリ(またはこの可能性の負を最小化する)の可能性を最大化する。 0.59
In terms of the inference, we run the forward path and classify testing data to the category with the highest probability score. 推論の面では、フォワードパスを実行し、最も高い確率スコアを持つカテゴリにテストデータを分類します。 0.67
Even though ANN has shown great success in many fields, sometimes the enormous model size caused by a large number of weights can result in overwhelming computational burden (e g taking huge memory and being very power demanding). annは多くの分野で大きな成功を収めているが、大量の重みによって引き起こされる巨大なモデルサイズが計算上の負担を圧倒することがある(例えば、巨大なメモリを消費し、非常に電力を必要とする)。 0.71
In certain application scenarios that have memory or energy consumption limitations, such as mobile platform or browser-based systems, a smaller size ANN with high accuracy is not only necessary but also hold in high demand. モバイルプラットフォームやブラウザベースのシステムなど、メモリやエネルギー消費の制限がある特定のアプリケーションシナリオでは、高い精度のANNは必要であるだけでなく、高い要求にも耐えられる。 0.72
Deep compression is a powerful technique for reducing the size of an ANN while remaining high accuracy. 深部圧縮は精度を保ちながらANNのサイズを小さくする強力な技術である。 0.76
There are three techniques can be used to achieve this goal: pruning, clustering, and quantization. この目標を達成するには、pruning、clustering、quantizationの3つのテクニックが利用できる。
訳抜け防止モード: 使用できるテクニックは3つあります この目標を達成するには : 刈り取り,クラスタリング,量子化。
0.80
Pruning is the process of removing relatively insignificant weights from weight matrices. プルーニング(pruning)は、重量行列から比較的無意味な重みを取り除く過程である。 0.52
Since the matrices can be stored in the sparse matrix data type, the removal of any item in one matrix directly reduces its size. 行列はスパース行列データ型に格納できるため、1つの行列内の任意の項目の削除は、直接そのサイズを減少させる。 0.70
Clustering, also known as weight sharing, is the process of using the same value for multiple weights. クラスタリングは、重み共有としても知られ、複数の重み付けに対して同じ値を使用するプロセスである。 0.67
Since one reference can be used for several weights using this technique, it can reduce the storage space for storing weights. この手法により、複数の重みに対して一つの参照を使用できるため、重みを格納するためのストレージスペースを削減できる。 0.69
At last, quantization is the technique of storing weights in data types with lower precision in exchange for smaller space in storage. 量子化は、記憶空間を小さくする代わりに、より精度の低いデータ型に重みを格納する技術である。 0.66
By combing those three techniques, we are able to reduce the size of ANN while maintaining a similar accuracy. これら3つのテクニックを組み合わせることで、同様の精度を維持しながら、ANNのサイズを小さくすることができる。 0.66
Fault detection, as an essential step of industrial production to ensure efficiency and safety, has been an active field of research for past years. 障害検出は、効率と安全性を確保するために産業生産の不可欠なステップであり、近年は活発な研究分野となっている。 0.75
As the complexity of production increases dramatically due to more advanced technologies, deep learning has become an increasingly popular candidate for fault detection applications due to its potential in handling complex systems, including a large amount of measurements and many failure types for processes. より高度な技術によって生産の複雑さが劇的に増大するにつれて、大量の測定値やプロセスに対する障害タイプを含む複雑なシステムを扱う可能性から、ディープラーニングは障害検出アプリケーションの候補として人気が高まっている。 0.77
In this paper, we focus on the Tennessee Eastman process, a representative case for fault detection and diagnostic. 本稿では,障害検出と診断の代表的な事例であるテネシー・イーストマン・プロセスに注目した。 0.67
The Tennessee Eastman process is a typical industrial process that consists of five main process units. テネシー・イーストマン・プロセスは5つの主要なプロセス・ユニットからなる典型的な産業プロセスである。 0.65
It has 52 measurements and 21 fault types as defined by Downs and Vogel in [4]. DownsとVogelが[4]で定義した52の測定値と21の障害タイプがある。 0.72
Moreover, as a widely used case for fault detection, the usage of ANN to diagnose fault has been proved to have satisfying results. さらに, 断層検出に広く用いられている事例として, 断層の診断にANNが用いられていることが判明した。 0.75
To achieve the best accuracy, instead of using a single ANN to classify the fault type, the result in [5] uses different ANNs for different fault types and achieves 97.73% average accuracy. 1つのANNを使用して障害タイプを分類するのではなく、[5]の結果は異なる障害タイプに対して異なるANNを使用して、平均精度97.73%を達成する。
訳抜け防止モード: 単一ANNを使用して障害タイプを分類する代わりに、最良の精度を実現する。 5 ] の結果は、異なる障害タイプに異なる ANN を使用します。 平均精度は97.73パーセントです
0.73
However, this method requires one deep learning model for each fault type, which requires large storage space and computational efforts in total. しかし、この方法は障害の種類ごとに1つのディープラーニングモデルが必要であり、大きなストレージスペースと計算量を必要とする。
訳抜け防止モード: しかし,本手法では各断層タイプ毎に1つの深層学習モデルが必要となる。 大規模なストレージスペースと 計算作業が必要です
0.76
Tennessee Eastman process requires テネシー・イーストマン・プロセス 0.49
1 1 0.85
英語(論文から抽出)日本語訳スコア
the online detection ability with low latency. レイテンシの低い オンライン検出能力です 0.72
Thus, the ANN pruning is an ideal candidate for reducing the computational burden, speeding up the online inference time, as well as maintaining the classification accuracy. したがって、ANNプルーニングは計算負担を低減し、オンライン推論時間を短縮し、分類精度を維持するのに理想的な候補である。 0.70
In this paper, deep compression of artificial neural networks (ANN) is used for the fault detection on Tennessee Eastman chemical process to enable faster online inferences with high accuracy. 本稿では,テネシー州イーストマン化学プロセスにおける故障検出のために,ニューラルネットワークの奥行き圧縮(ann)を用いて,高精度なオンライン推論を実現する。 0.73
Sections II and III introduce the basics of deep learning and deep compression. 第2章と第3章では、深層学習と深層圧縮の基礎を紹介する。 0.56
Section IV discusses the details of deep learning architecture and deep compression results for fault detection of TN Eastman chemical processes. 第4節では、TNイーストマン化学プロセスの欠陥検出のためのディープラーニングアーキテクチャの詳細と深部圧縮結果について論じている。 0.62
Finally, Section V summaries this paper. 最後に、V節はこの論文を要約する。 0.59
II. DEEP LEARNING II。 ディープラーニング 0.55
An ANN usually has 4 different types of layer: input layer, hidden layer, softmax layer, and output layer. ANNは通常、入力層、隠れ層、ソフトマックス層、出力層という4つの異なるタイプの層を持つ。 0.76
Input layer is a weight matrix designed to pass the input data into the ANN through a linear mapping. 入力層は、入力データを線形マッピングを介してANNに渡すように設計された重み行列である。 0.79
In Hidden layers, the input information is transformed through a matrix multiplication and an activation function: h1 = σ(W1x + b1), hi = σ(Wihi−1 + bi), i = {2, 3, 4, ..., k}, where x ∈ Rnx is the vector of input data, hi ∈ Rnhi is the ith hidden layer representation, Wi ∈ Rnhi×nhi−1 and bi ∈ Rnhi are weights and bias for connecting the i-th and (i-1)-th hidden representations, k is the number of hidden layers, and σ is a nonlinear activation function that introduces nonlinearity into the neural network. In Hidden layers, the input information is transformed through a matrix multiplication and an activation function: h1 = σ(W1x + b1), hi = σ(Wihi−1 + bi), i = {2, 3, 4, ..., k}, where x ∈ Rnx is the vector of input data, hi ∈ Rnhi is the ith hidden layer representation, Wi ∈ Rnhi×nhi−1 and bi ∈ Rnhi are weights and bias for connecting the i-th and (i-1)-th hidden representations, k is the number of hidden layers, and σ is a nonlinear activation function that introduces nonlinearity into the neural network. 0.91
Specifically, ReLU activation function, σ(x) = max(0, x), is used in this paper. 具体的には, ReLU 活性化関数 σ(x) = max(0, x) を用いる。 0.73
The last fully-connected hidden layer does not impose the activation function. 最後の完全に接続された隠蔽層はアクティベーション機能を強制しない。 0.64
efyi(cid:80) j efj , where fyi is the score of the correct category, Then, a softmax layer calculates the score/probability of each class via and fj is the score of the jth catagory. efyi (cid:80) j efj , where fyi is the score of the correct category, then, a softmax layer determine the score/probability of each class via and fj is the score of the jth catagory。 0.90
Finally, the loss is calculated based on the true label and regularization. 最後に、損失は真のラベルと正規化に基づいて計算される。 0.71
The objective of the network is to minimize the loss and maximum the accuracy of both training and testing datasets. ネットワークの目的は、データセットのトレーニングとテストの両方の損失と精度を最小化することである。 0.82
Neural networks usually require enormous memory to fund their massive parameters. ニューラルネットワークは通常、巨大なパラメータに資金を提供するために膨大なメモリを必要とする。 0.50
In this section, three deep compression 本節では3つの深い圧縮について述べる。 0.53
techniques are discussed to reduce the model size and keep high accuracy. モデルサイズを小さくし,高精度を維持する技術について論じる。 0.73
Fig. 1. ANN Structure フィギュア。 1. ANN構造 0.70
III. DEEP COMPRESSION III。 ディープ圧縮 0.60
2 2 0.85
英語(論文から抽出)日本語訳スコア
A. Pruning Network pruning utilizes the connectivity between neuron s. Small weights under a predefined threshold are removed to reduce the model size. A.プルーニング ネットワークプルーニングはニューロン間の接続を利用しており、事前定義された閾値以下の小さな重みを除去してモデルサイズを小さくする。 0.67
As shown in Figure 2, the left figure is the original weights matrix. 図2に示すように、左図は元の重み行列である。 0.74
After pruning with a threshold 0.1, the pruned weights are illustrated in the right figure. しきい値0.1でプルーニングした後、プルーニングされた重量を正しい図に示す。 0.68
The sparsity of the matrix reduces model size, and can speeds up the calculation with hardware optimizations. 行列の幅はモデルサイズを小さくし、ハードウェア最適化によって計算を高速化することができる。 0.63
Fig. 2. The left figure is the original weight matrix, and the right figure is the matrix after pruning with a threshold 0.1. フィギュア。 2. 左図は元の重量行列、右図はしきい値0.1で刈り取った後の行列である。
訳抜け防止モード: フィギュア。 2. 左図はオリジナルの重量行列である。 そして右図は、しきい値0.1で刈り取った後の行列です。
0.67
Highlighted weights are removed. B. Clustering 軽量化されている。 B.クラスタリング 0.62
Clustering is a technique that groups weights with close values. クラスタリングは、密接な値で重みをグループ化するテクニックである。 0.64
First, weights are divided into a fixed number of groups. まず、重みを一定数の群に分割する。 0.54
Second, values in the same group will be reset as the same value and thus all weights in the same group can be referenced to the same address to reduce model size. 第二に、同じグループの値は同じ値としてリセットされるので、同じグループのすべての重みは同じアドレスを参照してモデルサイズを減らすことができる。 0.83
In Figure 3, the left top figure is a weight matrix before clustering. 図3では、左上図はクラスタ化前の重み行列である。 0.73
Weights in this original matrix are grouped into 6 groups, and all weights in the same group are each assigned with a same value. この元の行列の重みは6つのグループにグループ化され、同じグループの重みはそれぞれ同じ値で割り当てられる。 0.80
The gradient of each weight is calculated through back-propagation and the gradient of each group is the sum over all elements. 各重みの勾配はバックプロパゲーションによって計算され、各群の勾配はすべての要素の和である。 0.80
Finally, weights are updated through the cluster groups. 最後に、重みはクラスタグループを通して更新される。 0.68
Clustering essentially minimizes the amount of references needed for a model, and thus reduces the storage requirement of this model. クラスタリングは基本的に、モデルに必要な参照量を最小化し、このモデルのストレージ要件を削減します。 0.74
Fig. 3. An illustration of the gradient update for clustered weights: the top left figure is the original weight matrix colored according to clustered groups; the top middle figure is the corresponding group indices; the bottom left figure is the gradient of the weight matrix; the bottom middle figure is the grouped gradients according to the centroids; the bottom right figure shows the sum of gradients of each group; and the top right figure represent the final gradient update of clusters. フィギュア。 3. クラスタ化された重みの勾配更新の図示: 上位左図はクラスタ化されたグループに応じて色付けされたオリジナルの重み行列、上位中図は対応するグループ指標、下位中図は重み行列の勾配、下位中図はセントロイドに従ってグループ化された勾配、下位右図は各グループの勾配の和を示し、上位右図はクラスタの最終勾配更新を表す。 0.65
3 3 0.85
英語(論文から抽出)日本語訳スコア
C. Quantization In ANN, weights are usually stored a in high precision format such as float64 or float32, which consumes a relatively large space. C.量子化 ANNでは、重みは通常、比較的大きな空間を消費するfloat64やfloat32のような高精度なフォーマットで格納される。 0.65
In the quantization process, the precision used to store weights is degraded in the exchange for a lower space consumption. 量子化過程において、重量を保存するために用いられる精度は、より少ない空間消費と引き換えに劣化する。 0.65
In Figure 4, weights in the left figure are stored in one decimal, while the right figure reduces the storage requirement via rounding off the decimal value. 図4では、左図の重みは1つの十進法に格納され、右図は十進法値を丸めることで記憶要件を減少させる。
訳抜け防止モード: 図4では、左図の重みを1つの十進数に格納する。 正しい数字は、十進値の丸めによるストレージ要件を減少させる。
0.69
Fig. 4. The left figure is the weight matrix before quantization; the right figure is the weight matrix after quantization. フィギュア。 4. 左図は量子化前の重み行列であり、右図は量子化後の重み行列である。 0.66
The Tennessee Eastman process is a benchmark for fault detection [5]. テネシー・イーストマン・プロセスは断層検出のベンチマークである[5]。 0.58
Based on a baseline ANN structure, various ベースラインANN構造に基づく各種 0.58
combinations of deep compression techniques are applied to reduce the model size and achieve a high accuracy. モデルサイズの削減と高精度化のために, 深部圧縮技術の組み合わせを適用した。 0.84
IV. FAULT DETECTION FOR THE TENNESSEE EASTMAN CHEMICAL PROCESS IV。 テネシー・イーストマン化学プロセスにおける断層検出 0.68
A. Tennessee Eastman Process Description A. Tennessee Eastman Process Description 0.99
As summarized in Table I, the Tennessee Eastman process provides 52 measurements and 21 different fault types (including ”no fault” as faultNumber 0) in its dataset. 表1で要約したように、テネシー・イーストマンプロセスはデータセットに52の計測値と21の異なる障害タイプ("no fault" as faultnumber 0)を提供する。 0.77
Moreover, Chiang [6] and Zhang [7] pointed out that due to the absence of observable change in the mean, variance and the higher order variances in the data, we do not have enough information to detect Fault 3, 9, and 15. さらに,Chiang [6] と Zhang [7] は,データの平均,ばらつき,高次ばらつきが観測可能な変化がないため,障害3,9,15を検出するのに十分な情報が得られていないことを指摘した。 0.83
Therefore, this paper follows the common rule to exclude the three faults above for the consideration, resulting in 18 classification types (including ”no failure” as faultNumber 0). そこで本稿では,上記の3つの故障を除外する共通ルールに従い,18の分類型(「失敗なし」を含む)を故障数0とする。 0.81
Fault Number faultNumber 1 faultNumber 2 faultNumber 3 faultNumber 4 faultNumber 5 faultNumber 6 faultNumber 7 faultNumber 8 faultNumber 9 faultNumber 10 faultNumber 11 faultNumber 12 faultNumber 13 faultNumber 14 faultNumber 15 faultNumber 16 faultNumber 17 faultNumber 18 faultNumber 19 faultNumber 20 断層番号Number 1 faultNumber 2 faultNumber 3 faultNumber 4 faultNumber 5 faultNumber 6 faultNumber 7 faultNumber 8 faultNumber 9 faultNumber 11 faultNumber 12 faultNumber 13 faultNumber 14 faultNumber 15 faultNumber 16 faultNumber 17 faultNumber 18 faultNumber 19 faultNumber 20 0.80
Process Variable A/C feed ratio, B composition con- stant (stream 4) プロセス変数 a/cフィード比,b組成con-sant(ストリーム4) 0.81
B composition, A/C ratio constant (stream 4) B組成、A/C比定数(ストリーム4) 0.90
D feed temperature (stream 2) D供給温度(流れ2) 0.72
Reactor cooling water inlet tem- perature Condenser cooling water inlet tem- perature 原子炉冷却水 tem-通気器冷却水 tem-通気器 0.76
A feed loss (stream 1) フィード損失(ストリーム1) 0.63
C header pressure loss - reduced availability (stream 4) Cヘッダー圧力損失-可用性の低下(ストリーム4) 0.90
A, B, C feed composition (stream 4) a,b,cフィード組成物(ストリーム4) 0.79
D feed temperature (stream 2) C feed temperature (stream 4) D供給温度(ストリーム2)C供給温度(ストリーム4) 0.69
Reactor cooling water inlet tem- perature Condenser cooling water inlet tem- perature 原子炉冷却水 tem-通気器冷却水 tem-通気器 0.76
Reaction kinetics Reactor cooling water valve Condenser cooling water valve 反応速度論 原子炉冷却水弁凝縮器冷却水弁 0.77
Unknown Unknown Unknown Unknown Unknown 不明不明不明不明不明不明 0.54
FAULT TYPES IN THE TE PROCESS teプロセスにおけるフォールトタイプ 0.59
TABLE I 4 Type Step Step Step Step Step Step Step テーブルI 4 型 ステップ ステップ ステップ ステップ ステップ ステップ 0.67
Random variation Random variation Random variation Random variation Random variation ランダム変動 ランダム変動 ランダム変動 ランダム変動 ランダム変動 0.67
Slow drift Sticking Sticking Unkown Unkown Unkown Unkown Unkown スロードリフト、アンクウンドアンクウンドアンクウンドアンクウンドアンクウンド 0.20
英語(論文から抽出)日本語訳スコア
B. Baseline Artificial Neural Network Models B.ベースラインニューラルネットワークモデル 0.75
In Tennessee Eastman process measurements, one entry in the dataset might correspond to multiple fault types. テネシー・イーストマン過程の測定では、データセットの1つのエントリは複数の障害タイプに対応する可能性がある。 0.48
Following the state-of-art method in [5], we construct and train 18 different ANNs to detect each of the 18 fault types. 5]の最先端手法に従い,18の異なるanを構築・訓練し,各18の障害タイプを検出する。
訳抜け防止モード: 5]における芸術の方法の状況に従うこと 我々は18種類のANNを 18種類の断層を それぞれ検出します
0.80
In baseline, each ANN has 6 layers in the structure of 52 − 64 − 256 − 128 − 256 − 128 − 64 − 2. ベースラインでは、各ANNは52 − 64 − 256 − 128 − 256 − 128 − 64 − 2の構造の6つの層を持つ。 0.84
The input layer dimension is 52, which corresponds to the 52 measurement. 入力層寸法は52であり、52測定に対応する。 0.68
The output layer has a dimension of 2, which corresponds to the 2 possible outcomes (fault or no fault). 出力層は2の次元を持ち、2つの可能な結果に対応する(フォールトかノーか)。 0.72
The resulting 18 models are served as the baseline for comparison with compressed models. 結果の18モデルは圧縮モデルと比較してベースラインとして提供される。 0.82
C. Deep Compression Results In this section, all 7 different combinations of pruning, clustering, and quantization are applied to the 18 ANNs. c. 深部圧縮結果 この節では、18個のANNに対してプルーニング、クラスタリング、量子化の7つの組み合わせを適用する。 0.76
First, each of the three compression techniques is applied individually to exam the performance. まず,3つの圧縮手法をそれぞれ個別に適用し,性能評価を行う。 0.82
Then, each two of the compression techniques applied to the original 18 ANNs. そして、各2つの圧縮技術が元の18アンに適用される。 0.82
At Last, all three techniques are applied to the original ANNs to compare the compression rate and accuracy change. 最後に、圧縮率と精度変化を比較するために、3つの手法が元のANNに適用される。 0.74
The compression results of ANNs obtained by applying each of the three techniques individually are shown in Table II, III, and IV. 3つの技法をそれぞれ個別に適用したANNの圧縮結果を表II,III,IVに示す。 0.68
As shown in Table II, when only pruning is applied, the average compressed rate is 64.0% , and the average accuracy change is -0.5% for all 18 different types of fault labels. 表IIに示すように、プルーニングのみを適用した場合、平均圧縮率は64.0%、平均精度は18種類の断層ラベルすべてに対して-0.5%である。 0.76
This result is promising considering the average accuracy only changed slightly, while the average model size is significantly reduced by 64.0%. この結果は平均精度がわずかにしか変化しないのに対して、平均モデルサイズは64.0%減少することが期待できる。 0.76
Table III shows the compression result after clustering only, which achieves 76.0% average compressed rate and only -1.2% average accuracy change. テーブルIIIはクラスタリングのみの圧縮結果を示し、平均圧縮レートは76.0%、平均精度はわずか1.2%である。 0.77
This method is the best among combinations that only apply a single compression technique. この方法は、単一の圧縮技術のみを適用する組み合わせの中で最良である。 0.77
Table IV presents the result after only quantization, which achieves an average compression rate of 72.0%, and an average accuracy change of -7.8%. 表 iv は量子化のみの結果を示し、平均圧縮率は 72.0% であり、平均精度は -7.8% である。 0.82
Fault 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 Average 過ち 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 Average 0.70
Fault 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 Average 過ち 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 Average 0.70
ANN Size (bytes) ANN サイズ(バイト) 0.78
ANN Acc (%) ANN Acc (%) 0.85
Compressed Size (bytes) 圧縮サイズ(バイト) 0.74
Compressed Acc (%) 圧縮 Acc (%) 0.79
Compressed Rate (%) Acc Change (%) 圧縮 レート(%) Acc Change (%) 0.78
486924 487120 486853 486931 486901 486753 486914 486992 486789 486782 486737 487124 486838 486819 486844 486899 486816 486844 486924 487120 486853 486931 486901 486753 486914 486992 486789 486782 486737 487124 486838 486819 486844 486899 486816 486844 0.85
94.4 99.4 99.6 96.1 95.2 95.6 99.8 97.9 95.3 94.4 95.3 97.6 96.4 97.1 96.8 96.4 95.3 97.6 94.4 99.4 99.6 96.1 95.2 95.6 99.8 97.9 95.3 94.4 95.3 97.6 96.4 97.1 96.8 96.4 95.3 97.6 0.41
175207 175235 174988 175159 175354 174983 174765 175556 175412 175086 175564 175382 175283 175111 175266 175400 175605 175296 175207 175235 174988 175159 175354 174983 174765 175556 175412 175086 175564 175382 175283 175111 175266 175400 175605 175296 0.85
94.4 95.3 99.6 94.4 95.3 99.8 99.8 98.5 95.3 94.4 95.3 97.3 99.1 95.3 96.8 92.0 94.4 94.4 94.4 95.3 99.6 94.4 95.3 99.8 99.8 98.5 95.3 94.4 95.3 97.3 99.1 95.3 96.8 92.0 94.4 94.4 0.41
COMPRESSION RESULTS WITH PRUNING プルーニングによる圧縮結果 0.61
TABLE II 64.0 64.0 64.1 64.0 64.0 64.1 64.1 64.0 64.0 64.0 64.0 64.0 64.0 64.0 64.0 64.0 64.0 64.0 64.0 テーブルII 64.0 64.0 64.1 64.0 64.0 64.1 64.1 64.0 64.0 64.0 64.0 64.0 64.0 64.0 64.0 64.0 64.0 64.0 64.0 0.50
0.0 -4.1 0.0 -1.7 0.1 4.2 0.0 6.0 0.0 0.0 0.0 -0.3 2.7 -1.8 0.0 -4.4 -0.9 -3.2 -0.5 0.0 -4.1 0.0 -1.7 0.1 4.2 0.0 6.0 0.0 0.0 0.0 -0.3 2.7 -1.8 0.0 -4.4 -0.9 -3.2 -0.5 0.36
ANN Size (bytes) ANN サイズ(バイト) 0.78
ANN Acc (%) ANN Acc (%) 0.85
Compressed Size (bytes) 圧縮サイズ(バイト) 0.74
Compressed Acc (%) 圧縮 Acc (%) 0.79
Compressed Rate (%) Acc Change (%) 圧縮 レート(%) Acc Change (%) 0.78
486924 487120 486853 486931 486901 486753 486914 486992 486789 486782 486737 487124 486838 486819 486844 486899 486816 486844 486924 487120 486853 486931 486901 486753 486914 486992 486789 486782 486737 487124 486838 486819 486844 486899 486816 486844 0.85
94.4 99.4 99.6 96.1 95.2 95.6 99.8 97.9 95.3 94.4 95.3 97.6 96.4 97.1 96.8 96.4 95.3 97.6 94.4 99.4 99.6 96.1 95.2 95.6 99.8 97.9 95.3 94.4 95.3 97.6 96.4 97.1 96.8 96.4 95.3 97.6 0.41
117313 117725 116627 118057 116922 115861 114344 115685 116442 117599 117798 115934 117672 116671 118284 116166 117600 117014 117313 117725 116627 118057 116922 115861 114344 115685 116442 117599 117798 115934 117672 116671 118284 116166 117600 117014 0.85
94.4 99.1 99.4 94.4 94.4 99.6 94.4 94.9 94.4 94.4 94.4 94.7 94.4 94.4 96.3 94.7 94.4 94.5 94.4 99.1 99.4 94.4 94.4 99.6 94.4 94.9 94.4 94.4 94.4 94.7 94.4 94.4 96.3 94.7 94.4 94.5 0.41
75.9 75.8 76.0 75.8 76.0 76.2 76.5 76.2 76.1 75.8 75.8 76.2 75.8 76.0 75.7 76.1 75.8 76.0 76.0 75.9 75.8 76.0 75.8 76.0 76.2 76.5 76.2 76.1 75.8 75.8 76.2 75.8 76.0 75.7 76.1 75.8 76.0 76.0 0.41
0.0 -0.3 -0.2 -1.7 -0.8 4.0 -5.4 -3.0 -0.9 0.0 -0.9 -2.9 -2.0 -2.7 -0.5 -1.7 -0.9 -3.1 -1.2 0.0 -0.3 -0.2 -1.7 -0.8 4.0 -5.4 -3.0 -0.9 0.0 -0.9 -2.9 -2.0 -2.7 -0.5 -1.7 -0.9 -3.1 -1.2 0.32
COMPRESSION RESULTS WITH CLUSTERING クラスタリングによる圧縮結果 0.57
TABLE III 5 テーブルIII 5 0.74
英語(論文から抽出)日本語訳スコア
Fault 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 Average 過ち 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 Average 0.70
ANN Size (bytes) ANN サイズ(バイト) 0.78
ANN Acc (%) ANN Acc (%) 0.85
Compressed Size (bytes) 圧縮サイズ(バイト) 0.74
Compressed Acc (%) 圧縮 Acc (%) 0.79
Compressed Rate (%) Acc Change (%) 圧縮 レート(%) Acc Change (%) 0.78
486924 487120 486853 486931 486901 486753 486914 486992 486789 486782 486737 487124 486838 486819 486844 486899 486816 486844 486924 487120 486853 486931 486901 486753 486914 486992 486789 486782 486737 487124 486838 486819 486844 486899 486816 486844 0.85
94.4 99.4 99.6 96.1 95.2 95.6 99.8 97.9 95.3 94.4 95.3 97.6 96.4 97.1 96.8 96.4 95.3 97.6 94.4 99.4 99.6 96.1 95.2 95.6 99.8 97.9 95.3 94.4 95.3 97.6 96.4 97.1 96.8 96.4 95.3 97.6 0.41
137620 137030 137482 136678 137766 137140 136784 137008 137479 137911 137582 137075 137428 137064 137421 137109 137560 137238 137620 137030 137482 136678 137766 137140 136784 137008 137479 137911 137582 137075 137428 137064 137421 137109 137560 137238 0.85
94.4 95.9 98.8 94.4 94.4 99.5 13.7 94.8 94.4 94.4 94.4 95.5 71.8 82.9 95.8 96.1 94.4 95.0 94.4 95.9 98.8 94.4 94.4 99.5 13.7 94.8 94.4 94.4 94.4 95.5 71.8 82.9 95.8 96.1 94.4 95.0 0.41
71.7 71.9 71.8 71.9 71.7 71.8 71.9 71.9 71.8 71.7 71.7 71.9 75.8 71.8 71.8 71.8 71.7 71.8 72.0 71.7 71.9 71.8 71.9 71.7 71.8 71.9 71.9 71.8 71.7 71.7 71.9 75.8 71.8 71.8 71.8 71.7 71.8 72.0 0.41
0.0 -3.5 -0.8 -1.7 -0.8 3.9 -86.1 -3.1 -0.9 0.0 -0.9 -2.1 -25.6 -14.2 -1.0 -0.3 -0.9 -2.6 -7.8 0.0 -3.5 -0.8 -1.7 -0.8 3.9 -86.1 -3.1 -0.9 0.0 -0.9 -2.1 -25.6 -14.2 -1.0 -0.3 -0.9 -2.6 -7.8 0.32
COMPRESSION RESULTS WITH QUANTIZATION 定量化による圧縮応答 0.48
TABLE IV Next, a comprehensive study of applying two compression techniques are conducted. テーブルIV 次に,2つの圧縮技術を適用した総合的研究を行った。 0.67
Table V shows that when utilizing both clustering and pruning, the average compressed rate increases to 87.3%, and the average accuracy change is only -1.9%. 表 v は、クラスタリングと刈り取りの両方を利用すると、平均圧縮速度は87.3%まで増加し、平均精度の変化は -1.9% であることを示している。
訳抜け防止モード: 表 V はクラスタリングとプルーニングの両方を利用するとき、 圧縮率の平均は87.3%に上昇します 平均精度の変化は-1.9%です
0.81
Moreover, the compression result is consistent among all fault types. さらに、すべてのフォールトタイプで圧縮結果が一貫性がある。 0.73
The variance of compressed rate and accuracy change are respectively 0.16 and 1.72, which shows that there are few fluctuations in compression rate and accuracy change, thus the average compression rate and average accuracy change are reliably representative. 圧縮速度のばらつきと精度の変化はそれぞれ 0.16 と 1.72 であり、圧縮速度のゆらぎと精度の変化は少ないため、平均圧縮速度と平均精度の変化が確実に代表される。 0.84
Table VI shows the compression result with both pruning and quantization. テーブルVIは、プルーニングと量子化の両方で圧縮結果を示す。 0.71
The average compression rate is 88.1%, which is about the same as the result in Table V. But the average accuracy change drops to -5.3%, which is the largest drop among methods that apply two compression techniques. 平均圧縮速度は88.1%であり、表 v の結果とほぼ同じであるが、平均精度の変化は -5.3% に低下し、2つの圧縮技術を適用する方法の中で最大となる。 0.86
Table VII presents the compression result with both clustering and pruning. Table VIIはクラスタリングとプルーニングの両方で圧縮結果を表示する。 0.77
The average accuracy change is -1.8%, which is close to the average accuracy change in Table V. The compression rate is 82.2%, which is 5.1% smaller than the result in Table V. In general, applying two compression techniques achieves better results than only applying one single technique. 平均精度の変化は -1.8% であり、テーブル v の平均精度変化に近い。圧縮速度は 82.2% であり、テーブル v の結果よりも5.1% 小さい。
訳抜け防止モード: 平均精度変化は-1.8%であり、テーブルvの平均精度変化に近い。圧縮速度は82.2%である。 これは表 v の値よりも5.1 %小さい。 2つの圧縮技術を適用する 1つのテクニックだけを適用するよりも、よりよい結果を得るのです。
0.72
Fault 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 Average 過ち 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 Average 0.70
ANN Size (bytes) ANN サイズ(バイト) 0.78
ANN Acc (%) ANN Acc (%) 0.85
Compressed Size (bytes) 圧縮サイズ(バイト) 0.74
Compressed Acc (%) 圧縮 Acc (%) 0.79
Compressed Rate (%) Acc Change (%) 圧縮 レート(%) Acc Change (%) 0.78
486924 487120 486853 486931 486901 486753 486914 486992 486789 486782 486737 487124 486838 486819 486844 486899 486816 486844 486924 487120 486853 486931 486901 486753 486914 486992 486789 486782 486737 487124 486838 486819 486844 486899 486816 486844 0.85
94.4 99.4 99.6 96.1 95.2 95.6 99.8 97.9 95.3 94.4 95.3 97.6 96.4 97.1 96.8 96.4 95.3 97.6 94.4 99.4 99.6 96.1 95.2 95.6 99.8 97.9 95.3 94.4 95.3 97.6 96.4 97.1 96.8 96.4 95.3 97.6 0.41
62014 61788 63234 61694 62078 62995 62065 60908 60772 61664 62178 61671 62292 61002 62443 60988 60709 61086 62014 61788 63234 61694 62078 62995 62065 60908 60772 61664 62178 61671 62292 61002 62443 60988 60709 61086 0.85
94.4 95.3 95.3 94.4 95.3 95.3 95.3 95.3 95.3 94.4 95.3 95.3 95.3 95.3 92.1 94.4 94.4 94.4 94.4 95.3 95.3 94.4 95.3 95.3 95.3 95.3 95.3 94.4 95.3 95.3 95.3 95.3 92.1 94.4 94.4 94.4 0.41
87.3 87.3 87.0 87.3 87.3 87.0 87.3 87.5 87.5 87.3 87.2 87.3 87.2 87.5 87.2 87.5 87.5 87.5 87.3 87.3 87.3 87.0 87.3 87.3 87.0 87.3 87.5 87.5 87.3 87.2 87.3 87.2 87.5 87.2 87.5 87.5 87.5 87.3 0.41
0.0 -4.1 -4.3 -1.7 0.1 -0.3 -4.5 -2.6 0.0 0.0 0.0 -2.3 0.0 -1.8 -4.7 -2.0 -0.9 -3.2 -1.9 0.0 -4.1 -4.3 -1.7 0.1 -0.3 -4.5 -2.6 0.0 0.0 0.0 -2.3 0.0 -1.8 -4.7 -2.0 -0.9 -3.2 -1.9 0.33
COMPRESSION RESULTS WITH PRUNING AND CLUSTERING プルーニングとクラスタリングによる圧縮結果 0.61
TABLE V 6 テーブルV 6 0.74
英語(論文から抽出)日本語訳スコア
Fault 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 Average 過ち 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 Average 0.70
Fault 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 Average 過ち 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 Average 0.70
ANN Size (bytes) ANN サイズ(バイト) 0.78
ANN Acc (%) ANN Acc (%) 0.85
Compressed Size (bytes) 圧縮サイズ(バイト) 0.74
Compressed Acc (%) 圧縮 Acc (%) 0.79
Compressed Rate (%) Acc Change (%) 圧縮 レート(%) Acc Change (%) 0.78
486924 487120 486853 486931 486901 486753 486914 486992 486789 486782 486737 487124 486838 486819 486844 486899 486816 486844 486924 487120 486853 486931 486901 486753 486914 486992 486789 486782 486737 487124 486838 486819 486844 486899 486816 486844 0.85
94.4 99.4 99.6 96.1 95.2 95.6 99.8 97.9 95.3 94.4 95.3 97.6 96.4 97.1 96.8 96.4 95.3 97.6 94.4 99.4 99.6 96.1 95.2 95.6 99.8 97.9 95.3 94.4 95.3 97.6 96.4 97.1 96.8 96.4 95.3 97.6 0.41
57823 58337 57901 58162 58014 57901 58132 57978 57330 58013 58098 57775 58371 56579 58048 57806 57919 57648 57823 58337 57901 58162 58014 57901 58132 57978 57330 58013 58098 57775 58371 56579 58048 57806 57919 57648 0.85
94.4 94.4 94.2 94.4 94.4 94.4 94.4 94.4 94.4 94.4 94.4 94.4 94.4 94.4 46.9 87.1 94.4 94.4 94.4 94.4 94.2 94.4 94.4 94.4 94.4 94.4 94.4 94.4 94.4 94.4 94.4 94.4 46.9 87.1 94.4 94.4 0.41
88.1 88.0 88.1 88.1 88.1 88.1 88.1 88.1 88.2 88.1 88.1 88.1 88.0 88.4 88.1 88.1 88.1 88.2 88.1 88.1 88.0 88.1 88.1 88.1 88.1 88.1 88.1 88.2 88.1 88.1 88.1 88.0 88.4 88.1 88.1 88.1 88.2 88.1 0.41
0.0 -5.0 -5.4 -1.7 -0.8 -1.2 -5.4 -3.5 -0.9 0.0 -0.9 -3.2 -2.0 -2.7 -49.9 -9.3 -0.9 -3.2 -5.3 0.0 -5.0 -5.4 -1.7 -0.8 -1.2 -5.4 -3.5 -0.9 0.0 -0.9 -3.2 -2.0 -2.7 -49.9 -9.3 -0.9 -3.2 -5.3 0.31
82.1 82.3 82.3 82.4 82.2 82.2 82.4 82.2 82.1 82.1 82.1 82.2 82.3 82.2 82.2 82.2 82.1 82.2 82.2 82.1 82.3 82.3 82.4 82.2 82.2 82.4 82.2 82.1 82.1 82.1 82.2 82.3 82.2 82.2 82.2 82.1 82.2 82.2 0.41
0.0 -2.8 -3.9 -1.7 -0.8 3.6 -5.4 -3.4 -0.9 0.0 -1.0 -3.9 -2.0 -2.7 -2.1 -2.1 -0.9 -3.2 -1.8 0.0 -2.8 -3.9 -1.7 -0.8 3.6 -5.4 -3.4 -0.9 0.0 -1.0 -3.9 -2.0 -2.7 -2.1 -2.1 -0.9 -3.2 -1.8 0.32
COMPRESSION RESULTS WITH PRUNING AND QUANTIZATION プルーニングと量子化による圧縮結果 0.55
TABLE VI ANN テーブルVI ANN 0.72
Size (bytes) ANN Acc (%) サイズ(バイト) ANN Acc (%) 0.78
Compressed Size (bytes) 圧縮サイズ(バイト) 0.74
Compressed Acc (%) 圧縮 Acc (%) 0.79
Compressed Rate (%) Acc Change (%) 圧縮 レート(%) Acc Change (%) 0.78
486924 487120 486853 486931 486901 486753 486914 486992 486789 486782 486737 487124 486838 486819 486844 486899 486816 486844 486924 487120 486853 486931 486901 486753 486914 486992 486789 486782 486737 487124 486838 486819 486844 486899 486816 486844 0.85
94.4 99.4 99.6 96.1 95.2 95.6 99.8 97.9 95.3 94.4 95.3 97.6 96.4 97.1 96.8 96.4 95.3 97.6 94.4 99.4 99.6 96.1 95.2 95.6 99.8 97.9 95.3 94.4 95.3 97.6 96.4 97.1 96.8 96.4 95.3 97.6 0.41
86997 86233 86674 85853 86820 86477 85627 86582 86966 86958 86962 86509 86261 86494 86644 86561 86990 86580 86997 86233 86674 85853 86820 86477 85627 86582 86966 86958 86962 86509 86261 86494 86644 86561 86990 86580 0.85
94.4 96.6 95.7 94.4 94.4 99.2 94.4 94.5 94.4 94.4 94.3 93.7 94.4 94.4 94.7 94.3 94.4 94.4 94.4 96.6 95.7 94.4 94.4 99.2 94.4 94.5 94.4 94.4 94.3 93.7 94.4 94.4 94.7 94.3 94.4 94.4 0.41
COMPRESSION RESULTS WITH CLUSTERING AND QUANTIZATION クラスタリングおよび定量化による圧縮応答 0.56
TABLE VII Finally, we exam the performance of applying all three compression techniques. テーブルVII 最後に,3つの圧縮技術すべてを適用した性能を検証した。 0.67
Table VIII shows that the average compressed rate increases to 91.5% while the average accuracy change remains relatively small at -1.8%. 表VIIIでは、平均圧縮速度は91.5%まで上昇し、平均精度は-1.8%と比較的小さい。 0.70
The variances of the compressed rates and accuracy changes are only 0.14 and 1.83, correspondingly, which shows the consistency of the performance among all fault types. 圧縮率と精度の変化のばらつきは 0.14 と 1.83 に過ぎず、すべての障害タイプ間のパフォーマンスの一貫性を示している。 0.81
Compare to results of applying two techniques in Table V, Table VI, and Table VII, this method achieves the best compressed rate with no extra loss in accuracy, which indicates applying all three techniques is better than only applying two techniques for fault diagnosis in the TE process. 表5,表6,表7の2つの手法を適用した結果と比較すると, TEプロセスにおける異常診断にのみ2つの手法を適用するよりも, 3つの手法を適用した方がよいことを示す。 0.71
Compared to the results of applying only one compression technique in Table II, III, and IV, although average accuracy change decreases slightly, applying all three techniques still achieves accuracies higher than 94% for all fault types. 表II, III, IVに1つの圧縮技術を適用した結果と比較すると, 平均精度はわずかに低下するが, これら3つの手法を適用した場合, 全ての断層タイプに対して94%以上の精度が得られる。 0.78
At the same time, the compressed rate 91.5% is significantly higher than 76%, the best result of applying only one technique. 同時に、圧縮率91.5%は76%よりも著しく高く、1つの技術のみを適用する最も良い結果である。 0.86
The results of all 7 different combination of compression techniques are summarized in Figure 5. 全7種類の圧縮技術の組み合わせの結果を図5にまとめる。 0.76
It is clear that applying all three techniques achieves the highest compressed rate, as well as maintains a high average accuracy above 94%. 3つのテクニックすべてを適用することで、最も高い圧縮率を達成し、94%を超える高い平均精度を維持することは明らかである。 0.68
Thus, it is ideal to utilize all three compression techniques for the fault diagnosis in the TE process. したがって,TEプロセスの故障診断に3つの圧縮技術を利用するのが理想的である。 0.87
7 7 0.85
英語(論文から抽出)日本語訳スコア
Fault 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 Average 過ち 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 Average 0.70
ANN Size (bytes) ANN サイズ(バイト) 0.78
ANN Acc (%) ANN Acc (%) 0.85
Compressed Size (bytes) 圧縮サイズ(バイト) 0.74
Compressed Acc (%) 圧縮 Acc (%) 0.79
Compressed Rate (%) Acc Change (%) 圧縮 レート(%) Acc Change (%) 0.78
486924 487120 486853 486931 486901 486753 486914 486992 486789 486782 486737 487124 486838 486819 486844 486899 486816 486844 486924 487120 486853 486931 486901 486753 486914 486992 486789 486782 486737 487124 486838 486819 486844 486899 486816 486844 0.85
94.4 99.4 99.6 96.1 95.2 95.6 99.8 97.9 95.3 94.4 95.3 97.6 96.4 97.1 96.8 96.4 95.3 97.6 94.4 99.4 99.6 96.1 95.2 95.6 99.8 97.9 95.3 94.4 95.3 97.6 96.4 97.1 96.8 96.4 95.3 97.6 0.41
41391 41264 42833 41320 42055 42466 41165 40674 40523 41471 41642 41741 42006 40762 42055 40559 40741 40543 41391 41264 42833 41320 42055 42466 41165 40674 40523 41471 41642 41741 42006 40762 42055 40559 40741 40543 0.85
94.4 94.4 94.4 94.4 95.3 95.5 95.3 95.3 95.3 94.4 95.3 95.3 95.3 95.3 95.3 94.4 94.4 94.4 94.4 94.4 94.4 94.4 95.3 95.5 95.3 95.3 95.3 94.4 95.3 95.3 95.3 95.3 95.3 94.4 94.4 94.4 0.41
91.5 91.5 91.2 91.5 91.4 91.3 91.5 91.6 91.7 91.5 91.4 91.4 91.4 91.6 91.4 91.7 91.6 91.7 91.5 91.5 91.5 91.2 91.5 91.4 91.3 91.5 91.6 91.7 91.5 91.4 91.4 91.4 91.6 91.4 91.7 91.6 91.7 91.5 0.41
0.0 -5.0 -5.2 -1.7 0.1 -0.1 -4.5 -2.6 0.0 0.0 0.0 -2.3 -1.1 -1.8 -1.5 -2.0 -0.9 -3.2 -1.8 0.0 -5.0 -5.2 -1.7 0.1 -0.1 -4.5 -2.6 0.0 0.0 0.0 -2.3 -1.1 -1.8 -1.5 -2.0 -0.9 -3.2 -1.8 0.33
COMPRESSION STATISTICS WITH PRUNING, CLUSTERING, AND QUANTIZATION 印刷、クラスタリング及び定量化を伴う圧縮安定性 0.57
TABLE VIII Fig. テーブルVIII フィギュア。 0.54
5. The left plot shows compressed rates of all fault types over 7 different combinations of compression techniques, where P = pruning, C = clustering, and Q = quantization. 5. 左プロットは、P = プルーニング、C = クラスタリング、Q = 量子化という7種類の圧縮技法の組み合わせで、全ての断層型の圧縮率を示す。 0.82
The right plot shows the average accuracy over all fault types with 7 different combinations of compression techniques. 正しいプロットは、7つの異なる圧縮技術の組み合わせで、すべての障害タイプの平均精度を示す。 0.72
Results of different compression methods are colored consistently in two plots. 異なる圧縮方法の結果は、2つのプロットで一貫して色付けされる。 0.64
This paper studies deep compression techniques for fault diagnosis on the Tennessee Eastman process. 本稿では,テネシー州イーストマン過程における断層診断のための深部圧縮技術について検討する。 0.56
In respond to the demand of fast online detection for industrial processes, three compression techniques (pruning, clustering, and quantization) are applied to reduce model size and computational complexity. 産業プロセスの高速オンライン検出の需要に応じて、3つの圧縮技術(プルーニング、クラスタリング、量子化)を適用し、モデルサイズと計算複雑性を低減する。 0.82
We have examined a comprehensive list of 7 different combinations of compression techniques. 我々は7種類の圧縮技術の組み合わせの包括的リストを調査した。 0.77
All methods achieve high model compression rates over 64% while maintaining high fault detection 高破壊検出を維持しながら64%以上の高モデル圧縮率を達成する方法 0.82
V. CONCLUSION V.コンキュレーション 0.76
8 8 0.85
英語(論文から抽出)日本語訳スコア
accuracy. The best candidate for fault detection on the Tennessee Eastman chemical process is applying all three techniques, which reduces model sizes by 91.5% and remains a high accuracy over 94%. 正確さ テネシー・イーストマン化学プロセスにおける故障検出の最良の候補は、モデルサイズを91.5%削減し、94%以上の精度を保った3つの技術すべてを適用することである。 0.70
This result leads to smaller storage requirement in production environment, and makes the deployment smoother in real world. その結果、本番環境でのストレージ要件が小さくなり、実世界でのデプロイメントがよりスムーズになる。 0.69
REFERENCES [1] Dan Ciresan, Ueli Meier, and J¨urgen Schmidhuber. 参考 [1] dan ciresan, ueli meier, j surgen schmidhuber。 0.46
Multi-column deep neural networks for image classification. 画像分類のための多列深層ニューラルネットワーク 0.79
In IN PROCEEDINGS OF THE 25TH 25世紀の訴訟において 0.50
IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR 2012, pages 3642–3649, 2012. IEEE Conference on Computer Vision and PATTERN Recognition (CVPR 2012, pages 3642–3649, 2012) 0.81
[2] Richard Socher, Alex Perelygin, Jean Wu, Jason Chuang, Christopher D. Manning, Andrew Ng, and Christopher Potts. [2] Richard Socher、Alex Perelygin、Jean Wu、Jason Chuang、Christopher D. Manning、Andrew Ng、Christopher Potts。
訳抜け防止モード: [2 ]Richard Socher, Alex Perelygin, Jean Wu, Jason Chuang氏、Christopher D. Manning氏、Andrew Ng氏、Christopher Potts氏。
0.87
Recursive deep models for semantic compositionality over a sentiment treebank. 感情木バンク上の意味的構成性の再帰的深部モデル 0.62
In Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing, pages 1631–1642, Seattle, Washington, USA, October 2013. 2013年10月、ワシントン州シアトルの1631-1642ページで、自然言語処理における経験的方法に関する会議が開催された。
訳抜け防止モード: 自然言語処理における経験的手法に関する2013年会議のまとめ 1631-1642, Seattle, Washington, USA, October 2013 (英語)
0.83
Association for Computational Linguistics. [3] C. Chen, A. Seff, A. Kornhauser, and J. Xiao. 計算言語学会会員。 [3] c. chen, a. seff, a. kornhauser, j. xiao。 0.64
Deepdriving: Learning affordance for direct perception in autonomous driving. deepdriving: 自動運転における直接認識のための学習能力。 0.70
In 2015 IEEE International 2015年ieeeインターナショナル 0.65
Conference on Computer Vision (ICCV), pages 2722–2730, 2015. コンピュータビジョンに関する会議(iccv)、2015年2722-2730頁。 0.76
[4] J.J. Downs and E.F. Vogel. J.J. DownsとE.F. Vogel 0.79
A plant-wide industrial process control problem. プラント全体にわたる産業プロセス制御問題。 0.78
Computers & Chemical Engineering, 17(3):245 – 255, 1993. computer & chemical engineering, 17(3):245 – 255, 1993年。 0.89
Industrial challenge problems in process control. 産業 プロセス制御における課題。 0.75
[5] Seongmin Heo and Jay H. Lee. 5]Seongmin HeoとJay H. Lee。 0.76
Fault detection and classification using artificial neural networks. ニューラルネットワークを用いた障害検出と分類 0.70
IFAC-PapersOnLine, 51(18):470 – 475, 2018. IFAC-PapersOnLine, 51(18):470–475, 2018 0.89
10th IFAC Symposium on Advanced Control of Chemical Processes ADCHEM 2018. 10日 IFAC Symposium on Advanced Control of Chemical Processes ADCHEM 2018 0.67
[6] Leo Chiang, E. Russell, and Richard Braatz. 6]Leo Chiang、E. Russell、Richard Braatz。 0.70
Fault detection and diagnosis in industrial systems. 産業システムにおける故障検出と診断 0.84
Measurement Science and Technology - MEAS SCI 計測科学と技術 -MEAS SCI 0.82
TECHNOL, 12, 10 2001. テクノ、2001年12月12日。 0.61
[7] Ying wei Zhang. [7] Ying wei Zhang. 0.85
Enhanced statistical analysis of nonlinear processes using kpca, kica and svm. kpca,kica,svmを用いた非線形過程の高次統計解析 0.78
Chemical Engineering Science, 64:801–811, 2009. 化学工学, 64:801-811, 2009 0.82
9 9 0.85
                   ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。