論文の概要: FAT: Training Neural Networks for Reliable Inference Under Hardware
Faults
- arxiv url: http://arxiv.org/abs/2011.05873v1
- Date: Wed, 11 Nov 2020 16:09:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 23:32:57.232214
- Title: FAT: Training Neural Networks for Reliable Inference Under Hardware
Faults
- Title(参考訳): FAT: ハードウェア障害下での信頼性推論のためのニューラルネットワークのトレーニング
- Authors: Ussama Zahid, Giulio Gambardella, Nicholas J. Fraser, Michaela Blott,
Kees Vissers
- Abstract要約: 本稿では、ニューラルネットワーク(NN)トレーニング中のエラーモデリングを含む、フォールト・アウェア・トレーニング(FAT)と呼ばれる新しい手法を提案し、デバイス上の特定のフォールトモデルに耐性を持たせる。
FATはCIFAR10、GTSRB、SVHN、ImageNetなど多くの分類タスクに対して検証されている。
- 参考スコア(独自算出の注目度): 3.191587417198382
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) are state-of-the-art algorithms for multiple
applications, spanning from image classification to speech recognition. While
providing excellent accuracy, they often have enormous compute and memory
requirements. As a result of this, quantized neural networks (QNNs) are
increasingly being adopted and deployed especially on embedded devices, thanks
to their high accuracy, but also since they have significantly lower compute
and memory requirements compared to their floating point equivalents. QNN
deployment is also being evaluated for safety-critical applications, such as
automotive, avionics, medical or industrial. These systems require functional
safety, guaranteeing failure-free behaviour even in the presence of hardware
faults. In general fault tolerance can be achieved by adding redundancy to the
system, which further exacerbates the overall computational demands and makes
it difficult to meet the power and performance requirements. In order to
decrease the hardware cost for achieving functional safety, it is vital to
explore domain-specific solutions which can exploit the inherent features of
DNNs. In this work we present a novel methodology called fault-aware training
(FAT), which includes error modeling during neural network (NN) training, to
make QNNs resilient to specific fault models on the device. Our experiments
show that by injecting faults in the convolutional layers during training,
highly accurate convolutional neural networks (CNNs) can be trained which
exhibits much better error tolerance compared to the original. Furthermore, we
show that redundant systems which are built from QNNs trained with FAT achieve
higher worse-case accuracy at lower hardware cost. This has been validated for
numerous classification tasks including CIFAR10, GTSRB, SVHN and ImageNet.
- Abstract(参考訳): deep neural networks (dnn) は、画像分類から音声認識まで、複数のアプリケーションのための最先端のアルゴリズムである。
優れた精度を提供する一方で、大きな計算とメモリの要求があることが多い。
この結果、量子化されたニューラルネットワーク(qnn)は、高い精度に加えて、浮動小数点の同等値に比べて計算やメモリの要求が著しく低いため、特に組み込みデバイスで採用され、デプロイされるようになっている。
qnnのデプロイメントは、自動車、アビオニクス、医療、工業など、安全クリティカルなアプリケーションでも評価されている。
これらのシステムは機能的安全性を必要とし、ハードウェア障害が存在する場合でも障害のない動作を保証する。
一般にフォールトトレランスは、システムに冗長性を追加することで達成でき、全体的な計算要求をさらに悪化させ、電力と性能の要求を満たすことが困難になる。
機能的安全性を達成するためのハードウェアコストを削減するためには、DNN固有の機能を利用するドメイン固有のソリューションを検討することが不可欠である。
本研究では、ニューラルネットワーク(NN)トレーニング中のエラーモデリングを含む、障害認識トレーニング(FAT)と呼ばれる新しい手法を提案する。
我々の実験は、トレーニング中に畳み込み層に欠陥を注入することにより、精度の高い畳み込みニューラルネットワーク(CNN)をトレーニングできることを示した。
さらに,fatでトレーニングされたqnnから構築した冗長システムは,ハードウェアコストの低減により,より悪い場合の精度が向上することを示す。
これは CIFAR10, GTSRB, SVHN, ImageNet など多くの分類タスクに対して検証されている。
関連論文リスト
- An Automata-Theoretic Approach to Synthesizing Binarized Neural Networks [13.271286153792058]
量子ニューラルネットワーク(QNN)が開発され、二項化ニューラルネットワーク(BNN)は特殊なケースとしてバイナリ値に制限されている。
本稿では,指定された特性を満たすBNNの自動合成手法を提案する。
論文 参考訳(メタデータ) (2023-07-29T06:27:28Z) - CRAFT: Criticality-Aware Fault-Tolerance Enhancement Techniques for
Emerging Memories-Based Deep Neural Networks [7.566423455230909]
ディープニューラルネットワーク(DNN)は、コンピュータビジョンと自然言語処理アプリケーションにとって最も効果的なプログラミングパラダイムとして登場した。
本稿では,NVMベースのDNNの信頼性を高めるために,CRAFT(Criticality-Aware Fault-Tolerance Enhancement Techniques)を提案する。
論文 参考訳(メタデータ) (2023-02-08T03:39:11Z) - QVIP: An ILP-based Formal Verification Approach for Quantized Neural
Networks [14.766917269393865]
量子化は、浮動小数点数に匹敵する精度でニューラルネットワークのサイズを減らすための有望な技術として登場した。
そこで本研究では,QNNに対する新しい,効率的な形式検証手法を提案する。
特に、QNNの検証問題を整数線形制約の解法に還元する符号化を初めて提案する。
論文 参考訳(メタデータ) (2022-12-10T03:00:29Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - CorrectNet: Robustness Enhancement of Analog In-Memory Computing for
Neural Networks by Error Suppression and Compensation [4.570841222958966]
本稿では,ニューラルネットワークの変動と雑音下での堅牢性を高める枠組みを提案する。
ニューラルネットワークの予測精度は、変動とノイズの下で1.69%以下から回復可能であることを示す。
論文 参考訳(メタデータ) (2022-11-27T19:13:33Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - FitAct: Error Resilient Deep Neural Networks via Fine-Grained
Post-Trainable Activation Functions [0.05249805590164901]
ディープニューラルネットワーク(DNN)は、パーソナルヘルスケアデバイスや自動運転車などの安全クリティカルなシステムにますます導入されている。
本稿では,DNNの微粒化後のアクティベーション機能を実装することで,DNNのエラーレジリエンスを高めるための低コストなアプローチであるFitActを提案する。
論文 参考訳(メタデータ) (2021-12-27T07:07:50Z) - Low-Precision Training in Logarithmic Number System using Multiplicative
Weight Update [49.948082497688404]
大規模ディープニューラルネットワーク(DNN)のトレーニングは、現在かなりの量のエネルギーを必要としており、深刻な環境影響をもたらす。
エネルギーコストを削減するための有望なアプローチの1つは、DNNを低精度で表現することである。
対数数システム(LNS)と乗算重み更新訓練法(LNS-Madam)を併用した低精度トレーニングフレームワークを共同で設計する。
論文 参考訳(メタデータ) (2021-06-26T00:32:17Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。