論文の概要: A Survey on Impact of Transient Faults on BNN Inference Accelerators
- arxiv url: http://arxiv.org/abs/2004.05915v1
- Date: Fri, 10 Apr 2020 16:15:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 20:09:18.663559
- Title: A Survey on Impact of Transient Faults on BNN Inference Accelerators
- Title(参考訳): 過渡断層がBNN推論加速器に与える影響に関する調査
- Authors: Navid Khoshavi, Connor Broyles, and Yu Bi
- Abstract要約: ビッグデータブームにより、非常に大きなデータセットへのアクセスと分析が容易になります。
ディープラーニングモデルは、計算能力と極めて高いメモリアクセスを必要とする。
本研究では,ソフトエラーが独自の深層学習アルゴリズムに与える影響が画像の劇的な誤分類を引き起こす可能性を実証した。
- 参考スコア(独自算出の注目度): 0.9667631210393929
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over past years, the philosophy for designing the artificial intelligence
algorithms has significantly shifted towards automatically extracting the
composable systems from massive data volumes. This paradigm shift has been
expedited by the big data booming which enables us to easily access and analyze
the highly large data sets. The most well-known class of big data analysis
techniques is called deep learning. These models require significant
computation power and extremely high memory accesses which necessitate the
design of novel approaches to reduce the memory access and improve power
efficiency while taking into account the development of domain-specific
hardware accelerators to support the current and future data sizes and model
structures.The current trends for designing application-specific integrated
circuits barely consider the essential requirement for maintaining the complex
neural network computation to be resilient in the presence of soft errors. The
soft errors might strike either memory storage or combinational logic in the
hardware accelerator that can affect the architectural behavior such that the
precision of the results fall behind the minimum allowable correctness. In this
study, we demonstrate that the impact of soft errors on a customized deep
learning algorithm called Binarized Neural Network might cause drastic image
misclassification. Our experimental results show that the accuracy of image
classifier can drastically drop by 76.70% and 19.25% in lfcW1A1 and cnvW1A1
networks,respectively across CIFAR-10 and MNIST datasets during the fault
injection for the worst-case scenarios
- Abstract(参考訳): 過去数年間、人工知能アルゴリズムを設計する哲学は、膨大なデータ量から構成可能なシステムを自動的に抽出する方向に大きくシフトしてきた。
このパラダイムシフトは、ビッグデータブームによって、非常に大きなデータセットに簡単にアクセスし、分析できるようになりました。
ビッグデータ分析技術の最もよく知られているクラスはディープラーニングと呼ばれる。
These models require significant computation power and extremely high memory accesses which necessitate the design of novel approaches to reduce the memory access and improve power efficiency while taking into account the development of domain-specific hardware accelerators to support the current and future data sizes and model structures.The current trends for designing application-specific integrated circuits barely consider the essential requirement for maintaining the complex neural network computation to be resilient in the presence of soft errors.
ソフトエラーは、ハードウェアアクセラレーターのメモリストレージまたは組み合わせロジックのいずれかに衝突し、その結果の精度が最小限の許容精度に遅れるようなアーキテクチャの振る舞いに影響を与える可能性がある。
本研究では,2値化ニューラルネットワークと呼ばれるカスタマイズされたディープラーニングアルゴリズムにソフトエラーが与える影響が,画像の誤分類を引き起こす可能性があることを示す。
実験結果から,CIFAR-10 および MNIST データセットにおける最悪のシナリオにおいて,画像分類器の精度は lfcW1A1 および cnvW1A1 ネットワークで 76.70% と 19.25% に劇的に低下することが示された。
関連論文リスト
- Dynamic Early Exiting Predictive Coding Neural Networks [3.542013483233133]
より小型で正確なデバイスを求めると、Deep Learningモデルはデプロイするには重すぎる。
予測符号化理論と動的早期退避に基づく浅層双方向ネットワークを提案する。
我々は,CIFAR-10上の画像分類におけるVGG-16と同等の精度を,より少ないパラメータと少ない計算量で達成した。
論文 参考訳(メタデータ) (2023-09-05T08:00:01Z) - Efficient Model Adaptation for Continual Learning at the Edge [15.334881190102895]
ほとんどの機械学習(ML)システムは、トレーニングとデプロイメントの間、定常的で一致したデータ分散を前提としている。
データ分布は、環境要因、センサー特性、タスク・オブ・関心などの変化により、時間とともに変化することが多い。
本稿では,ドメインシフト下での効率的な連続学習のためのアダプタ・リコンフィグレータ(EAR)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T23:55:17Z) - Solving Large-scale Spatial Problems with Convolutional Neural Networks [88.31876586547848]
大規模空間問題に対する学習効率を向上させるために移動学習を用いる。
畳み込みニューラルネットワーク (CNN) は, 信号の小さな窓で訓練できるが, 性能劣化の少ない任意の大信号で評価できる。
論文 参考訳(メタデータ) (2023-06-14T01:24:42Z) - Systematic Evaluation of Deep Learning Models for Log-based Failure Prediction [3.3810628880631226]
本稿では,障害予測のためのログデータ埋め込み戦略とディープラーニング(DL)タイプの組み合わせを系統的に検討する。
そこで我々は,組込み戦略とDLベースのエンコーダの様々な構成に対応するモジュールアーキテクチャを提案する。
また,F1スコア測定値を用いて,Logkey2vecを用いたCNNベースのエンコーダが最適であることを示す。
論文 参考訳(メタデータ) (2023-03-13T16:04:14Z) - Biologically Plausible Learning on Neuromorphic Hardware Architectures [27.138481022472]
ニューロモルフィックコンピューティング(Neuromorphic Computing)は、アナログメモリの計算によってこの不均衡に直面している新興パラダイムである。
この研究は、異なる学習アルゴリズムがCompute-In-Memoryベースのハードウェアに与える影響を初めて比較し、その逆も行った。
論文 参考訳(メタデータ) (2022-12-29T15:10:59Z) - Adaptive Anomaly Detection for Internet of Things in Hierarchical Edge
Computing: A Contextual-Bandit Approach [81.5261621619557]
階層エッジコンピューティング(HEC)を用いた適応型異常検出手法を提案する。
まず,複雑性を増した複数のDNNモデルを構築し,それぞれを対応するHEC層に関連付ける。
そこで我々は、文脈帯域問題として定式化され、強化学習ポリシーネットワークを用いて解決される適応モデル選択スキームを設計する。
論文 参考訳(メタデータ) (2021-08-09T08:45:47Z) - From DNNs to GANs: Review of efficient hardware architectures for deep
learning [0.0]
ニューラルネットワークとディープラーニングが現在の研究パラダイムに影響を与え始めている。
DSPプロセッサは、ニューラルネットワーク、アクティベーション機能、畳み込みニューラルネットワーク、生成的敵ネットワーク操作を実行することができない。
異なるアルゴリズムは、ニューラルネットワーク、アクティベーション機能、畳み込みニューラルネットワーク、生成対向ネットワークにおける高速なパフォーマンスに適合するDSPプロセッサを設計するために適合している。
論文 参考訳(メタデータ) (2021-06-06T13:23:06Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。