論文の概要: One-Shot Online Testing of Deep Neural Networks Based on Distribution
Shift Detection
- arxiv url: http://arxiv.org/abs/2305.09348v1
- Date: Tue, 16 May 2023 11:06:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 15:16:42.134132
- Title: One-Shot Online Testing of Deep Neural Networks Based on Distribution
Shift Detection
- Title(参考訳): 分布シフト検出に基づくディープニューラルネットワークのワンショットオンラインテスト
- Authors: Soyed Tuhin Ahmed, Mehdi B. Tahoori
- Abstract要約: 本研究では,1つのテストベクタのみを用いて,暗黙のクロスバー上で高速化されたNNをテストできるエミフォン・ショット・テスト手法を提案する。
私たちのアプローチは、いくつかの大きなトポロジにまたがる100%のフォールトカバレッジを一貫して達成できます。
- 参考スコア(独自算出の注目度): 0.6091702876917281
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks (NNs) are capable of learning complex patterns and
relationships in data to make predictions with high accuracy, making them
useful for various tasks. However, NNs are both computation-intensive and
memory-intensive methods, making them challenging for edge applications. To
accelerate the most common operations (matrix-vector multiplication) in NNs,
hardware accelerator architectures such as computation-in-memory (CiM) with
non-volatile memristive crossbars are utilized. Although they offer benefits
such as power efficiency, parallelism, and nonvolatility, they suffer from
various faults and variations, both during manufacturing and lifetime
operations. This can lead to faulty computations and, in turn, degradation of
post-mapping inference accuracy, which is unacceptable for many applications,
including safety-critical applications. Therefore, proper testing of NN
hardware accelerators is required. In this paper, we propose a \emph{one-shot}
testing approach that can test NNs accelerated on memristive crossbars with
only one test vector, making it very suitable for online testing applications.
Our approach can consistently achieve $100\%$ fault coverage across several
large topologies with up to $201$ layers and challenging tasks like semantic
segmentation. Nevertheless, compared to existing methods, the fault coverage is
improved by up to $24\%$, the memory overhead is only $0.0123$ MB, a reduction
of up to $19980\times$ and the number of test vectors is reduced by
$10000\times$.
- Abstract(参考訳): ニューラルネットワーク(NN)は、データの複雑なパターンや関係を学習し、高精度に予測し、様々なタスクに役立てることができる。
しかし、NNは計算集約的かつメモリ集約的な手法であり、エッジアプリケーションでは困難である。
NNにおいて最も一般的な演算(行列ベクトル乗算)を高速化するために、不揮発性メモリ(CiM)やメムリシブクロスバーなどのハードウェアアクセラレータアーキテクチャを利用する。
電力効率、並列性、非揮発性などの利点を提供するが、製造と寿命の両面で様々な欠点やバリエーションに悩まされている。
これは故障した計算につながり、結果として、安全クリティカルなアプリケーションを含む多くのアプリケーションでは受け入れられない、ポストマッピング推論の精度が低下する。
したがって、NNハードウェアアクセラレータの適切なテストが必要である。
本稿では,1つのテストベクタでNNを高速化し,オンラインテストアプリケーションに非常に適したテスト手法として,emph{one-shot}テスト手法を提案する。
当社のアプローチは、最大201ドルのレイヤとセマンティックセグメンテーションのような課題のあるタスクを持つ、いくつかの大きなトポロジにわたって、一貫して100~%の障害カバレッジを達成できます。
それでも、既存のメソッドと比較して、フォールトカバレッジは最大で24 %、メモリオーバーヘッドは0.0123$ MB、最大で19980\times$、テストベクタの数は10000\times$と改善されている。
関連論文リスト
- BasisN: Reprogramming-Free RRAM-Based In-Memory-Computing by Basis Combination for Deep Neural Networks [9.170451418330696]
本研究では,任意のクロスバー上のディープニューラルネットワーク(DNN)をリプログラミングせずに高速化するBasisNフレームワークを提案する。
その結果, クロスバーに再プログラミングを適用する場合と比較して, 推論毎のサイクルとエネルギー遅延生成物は1%以下に削減された。
論文 参考訳(メタデータ) (2024-07-04T08:47:05Z) - Few-Shot Testing: Estimating Uncertainty of Memristive Deep Neural Networks Using One Bayesian Test Vector [0.0]
我々は,memristorベースのCIMハードウェア上に実装されたNNのモデル不確かさを推定できるテストベクトル生成フレームワークを提案する。
提案手法は, 異なるモデル次元, タスク, 故障率, 変動ノイズに基づいて評価し, メモリオーバーヘッドを0.024ドルに抑えながら, 100%のカバレッジを連続的に達成可能であることを示す。
論文 参考訳(メタデータ) (2024-05-29T08:53:16Z) - Concurrent Self-testing of Neural Networks Using Uncertainty Fingerprint [0.32634122554914]
本研究では,不確実な指紋を生成するために特別に設計されたデュアルヘッドNNトポロジーと,エマフォ単発画像におけるNNの一次予測を提案する。
既存の作業と比較すると、メモリオーバーヘッドを最大243.7ドル MB削減し、乗算および累積(MAC)操作を最大10000Times$に削減し、偽陽性率を最大89%まで削減する。
論文 参考訳(メタデータ) (2024-01-02T23:05:07Z) - Communication-Efficient Adam-Type Algorithms for Distributed Data Mining [93.50424502011626]
我々はスケッチを利用した新しい分散Adam型アルゴリズムのクラス(例:SketchedAMSGrad)を提案する。
我々の新しいアルゴリズムは、反復毎に$O(frac1sqrtnT + frac1(k/d)2 T)$の高速収束率を$O(k log(d))$の通信コストで達成する。
論文 参考訳(メタデータ) (2022-10-14T01:42:05Z) - Automatic Mapping of the Best-Suited DNN Pruning Schemes for Real-Time
Mobile Acceleration [71.80326738527734]
本稿では,汎用的,きめ細かな構造化プルーニング手法とコンパイラの最適化を提案する。
提案手法は,より微細な構造化プルーニング手法とともに,最先端のDNN最適化フレームワークよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-22T23:53:14Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Encoding the latent posterior of Bayesian Neural Networks for
uncertainty quantification [10.727102755903616]
我々は,複雑なコンピュータビジョンアーキテクチャに適した効率的な深部BNNを目指している。
可変オートエンコーダ(VAE)を利用して、各ネットワーク層におけるパラメータの相互作用と潜在分布を学習する。
我々のアプローチであるLatent-Posterior BNN(LP-BNN)は、最近のBatchEnsemble法と互換性があり、高い効率(トレーニングとテストの両方における計算とメモリ)のアンサンブルをもたらす。
論文 参考訳(メタデータ) (2020-12-04T19:50:09Z) - Enabling certification of verification-agnostic networks via
memory-efficient semidefinite programming [97.40955121478716]
本稿では,ネットワークアクティベーションの総数にのみ線形なメモリを必要とする一階二重SDPアルゴリズムを提案する。
L-inf の精度は 1% から 88% ,6% から 40% に改善した。
また,変分オートエンコーダの復号器に対する2次安定性仕様の厳密な検証を行った。
論文 参考訳(メタデータ) (2020-10-22T12:32:29Z) - AQD: Towards Accurate Fully-Quantized Object Detection [94.06347866374927]
本稿では,浮動小数点演算を除去するために,AQDと呼ばれる高精度な量子化オブジェクト検出ソリューションを提案する。
我々のAQDは、非常に低ビットのスキームの下での完全精度と比較して、同等またはそれ以上の性能を実現しています。
論文 参考訳(メタデータ) (2020-07-14T09:07:29Z) - Making Convolutions Resilient via Algorithm-Based Error Detection
Techniques [2.696566807900575]
畳み込みニューラルネットワーク(CNN)はリアルタイムテレメトリを正確に処理する。
CNNはハードウェア障害がある場合、正しく実行しなければならない。
完全な重複は必要な保証を提供するが、100%オーバーヘッドを引き起こす。
論文 参考訳(メタデータ) (2020-06-08T23:17:57Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。