論文の概要: BearingPGA-Net: A Lightweight and Deployable Bearing Fault Diagnosis
Network via Decoupled Knowledge Distillation and FPGA Acceleration
- arxiv url: http://arxiv.org/abs/2307.16363v1
- Date: Mon, 31 Jul 2023 01:43:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 16:09:47.757931
- Title: BearingPGA-Net: A Lightweight and Deployable Bearing Fault Diagnosis
Network via Decoupled Knowledge Distillation and FPGA Acceleration
- Title(参考訳): BearingPGA-Net:Decoupled Knowledge DistillationとFPGA Accelerationによる軽量で展開可能なベアリング故障診断ネットワーク
- Authors: Jing-Xiao Liao, Sheng-Lai Wei, Chen-Long Xie, Tieyong Zeng, Jinwei
Sun, Shiping Zhang, Xiaoge Zhang, Feng-Lei Fan
- Abstract要約: 本研究では,ベアリングPGA-Netと呼ばれる断層診断のための軽量で展開可能なモデルを提案する。
小型ながら,本モデルでは,他の軽量手法と比較して優れた故障診断性能を示す。
これは、FPGA上にCNNベースのベアリング故障診断モデルをデプロイする最初の例である。
- 参考スコア(独自算出の注目度): 11.310422189328268
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning has achieved remarkable success in the field of bearing fault
diagnosis. However, this success comes with larger models and more complex
computations, which cannot be transferred into industrial fields requiring
models to be of high speed, strong portability, and low power consumption. In
this paper, we propose a lightweight and deployable model for bearing fault
diagnosis, referred to as BearingPGA-Net, to address these challenges. Firstly,
aided by a well-trained large model, we train BearingPGA-Net via decoupled
knowledge distillation. Despite its small size, our model demonstrates
excellent fault diagnosis performance compared to other lightweight
state-of-the-art methods. Secondly, we design an FPGA acceleration scheme for
BearingPGA-Net using Verilog. This scheme involves the customized quantization
and designing programmable logic gates for each layer of BearingPGA-Net on the
FPGA, with an emphasis on parallel computing and module reuse to enhance the
computational speed. To the best of our knowledge, this is the first instance
of deploying a CNN-based bearing fault diagnosis model on an FPGA. Experimental
results reveal that our deployment scheme achieves over 200 times faster
diagnosis speed compared to CPU, while achieving a lower-than-0.4\% performance
drop in terms of F1, Recall, and Precision score on our independently-collected
bearing dataset. Our code is available at
\url{https://github.com/asdvfghg/BearingPGA-Net}.
- Abstract(参考訳): 深層学習は断層診断の分野で顕著な成功を収めた。
しかし、この成功にはより大きなモデルとより複雑な計算が伴うため、高速、高可搬性、低消費電力のモデルを必要とする産業分野に移行することはできない。
本稿では,これらの課題に対処するために,ベアリングPGA-Netと呼ばれる断層診断の軽量かつ展開可能なモデルを提案する。
まず,十分に訓練された大規模モデルを用いて,脱カップリング知識蒸留によるベアリングpga-netの訓練を行った。
小型ながら,本モデルでは,他の軽量手法と比較して優れた故障診断性能を示す。
次に, Verilog を用いた BearingPGA-Net のためのFPGA アクセラレーション方式を設計する。
このスキームは、fpga上の bearingpga-net の各層向けにカスタマイズされた量子化とプログラム可能な論理ゲートの設計を含み、並列コンピューティングとモジュール再利用に重点を置いて計算速度を向上させる。
我々の知る限りでは、FPGA上にCNNベースのベアリング故障診断モデルをデプロイする最初の例である。
実験結果から,当社のデプロイメント方式は,独立に収集したベアリングデータセットのf1,リコール,精度スコアの面では,cpuと比較して200倍以上高速に診断できることがわかった。
私たちのコードは \url{https://github.com/asdvfghg/BearingPGA-Net} で利用可能です。
関連論文リスト
- Understanding the Potential of FPGA-Based Spatial Acceleration for Large Language Model Inference [11.614722231006695]
数十億のパラメータを誇った大規模言語モデル(LLM)は、推論ワークロードの効率的なデプロイに対する大きな需要を生み出している。
本稿では,FPGA上でのLLM推論におけるモデル固有空間加速度の実現可能性と可能性について検討する。
論文 参考訳(メタデータ) (2023-12-23T04:27:06Z) - SupeRBNN: Randomized Binary Neural Network Using Adiabatic
Superconductor Josephson Devices [44.440915387556544]
AQFPデバイスはバイナリニューラルネットワーク(BNN)計算の優れたキャリアとして機能する。
本稿では,AQFPに基づくランダム化BNNアクセラレーションフレームワークSupeRBNNを提案する。
本稿では,ReRAMベースのBNNフレームワークのエネルギー効率を約7.8×104倍に向上することを示す。
論文 参考訳(メタデータ) (2023-09-21T16:14:42Z) - A2Q: Accumulator-Aware Quantization with Guaranteed Overflow Avoidance [49.1574468325115]
accumulator-aware Quantization (A2Q)は、量子化されたニューラルネットワーク(QNN)をトレーニングして、推論時のオーバーフローを回避するために設計された新しい重み量子化手法である。
A2Qは重み正規化にインスパイアされたユニークな定式化を導入し、アキュミュレータビット幅境界に従ってモデルの重みのL1ノルムを制約する。
A2Qは浮動小数点ベースラインと競合するモデルの精度を維持しつつ、低精度のアキュムレータのためのQNNを訓練できることを示す。
論文 参考訳(メタデータ) (2023-08-25T17:28:58Z) - SqueezeLLM: Dense-and-Sparse Quantization [80.32162537942138]
LLMにおける生成推論の主なボトルネックは、単一のバッチ推論のための計算ではなく、メモリ帯域幅である。
学習後量子化フレームワークであるSqueezeLLMを導入し、最大3ビットの超低精度でのロスレス圧縮を実現する。
本フレームワークは,2次情報に基づく最適ビット精度割当を探索する感度ベース非一様量子化法と,2次情報に基づくDense-and-Sparse分解法と,2次情報量割当値と感度重み値を効率的にスパース形式で格納するDense-and-Sparse分解法である。
論文 参考訳(メタデータ) (2023-06-13T08:57:54Z) - Reconfigurable Distributed FPGA Cluster Design for Deep Learning
Accelerators [59.11160990637615]
エッジコンピューティングアプリケーション用に設計された低消費電力組み込みFPGAに基づく分散システムを提案する。
提案システムは,様々なニューラルネットワーク(NN)モデルを同時に実行し,パイプライン構造にグラフを配置し,NNグラフの最も計算集約的な層により大きなリソースを手動で割り当てる。
論文 参考訳(メタデータ) (2023-05-24T16:08:55Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - LL-GNN: Low Latency Graph Neural Networks on FPGAs for High Energy
Physics [45.666822327616046]
本研究は,粒子検出器のための低グラフニューラルネットワーク(LL-GNN)設計のための新しい再構成可能なアーキテクチャを提案する。
LL-GNNの設計は、洗練されたアルゴリズムが実験データを効率的に処理できるようにすることで、次世代のトリガーシステムを進化させる。
論文 参考訳(メタデータ) (2022-09-28T12:55:35Z) - SECDA: Efficient Hardware/Software Co-Design of FPGA-based DNN
Accelerators for Edge Inference [0.0]
本稿では,FPGAを用いたエッジデバイス上でのDeep Neural Networks (DNN) 推論アクセラレータの設計時間を短縮するハードウェア/ソフトウェア共同設計手法であるSECDAを提案する。
SECDAを用いて、エッジFPGAを含むプラットフォームであるPYNQ-Z1基板上で、2つの異なるDNNアクセラレータ設計を効率的に開発する。
我々は,4つの一般的なDNNモデルを用いた2つの加速器設計を評価し,CPUのみの推論よりもエネルギー消費を2.9$times$で3.5$times$までのモデルで平均性能を向上した。
論文 参考訳(メタデータ) (2021-10-01T15:20:29Z) - High-Performance FPGA-based Accelerator for Bayesian Recurrent Neural
Networks [2.0631735969348064]
本稿では,ベイジアンLSTMベースのRNNを高速化するFPGAベースのハードウェア設計を提案する。
GPU実装と比較して、FPGAベースの設計では、最大106倍のエネルギー効率で10倍のスピードアップを実現できます。
論文 参考訳(メタデータ) (2021-06-04T14:30:39Z) - Toward fast and accurate human pose estimation via soft-gated skip
connections [97.06882200076096]
本稿では,高精度かつ高効率な人間のポーズ推定について述べる。
我々は、最先端技術よりも精度と効率を両立させる文脈において、この設計選択を再分析する。
本モデルでは,MPII と LSP のデータセットから最先端の結果が得られる。
論文 参考訳(メタデータ) (2020-02-25T18:51:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。