論文の概要: ADIC: Anomaly Detection Integrated Circuit in 65nm CMOS utilizing
Approximate Computing
- arxiv url: http://arxiv.org/abs/2008.09442v1
- Date: Fri, 21 Aug 2020 12:18:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 22:30:17.181547
- Title: ADIC: Anomaly Detection Integrated Circuit in 65nm CMOS utilizing
Approximate Computing
- Title(参考訳): ADIC:近似計算を用いた65nmCMOSにおける異常検出集積回路
- Authors: Bapi Kar, Pradeep Kumar Gopalakrishnan, Sumon Kumar Bose, Mohendra
Roy, and Arindam Basu
- Abstract要約: ADICは、オンライン学習のための(a)慎重に選択したアルゴリズムと(b)平均エネルギーを下げるための近似計算技術を組み合わせることで、低消費電力動作を実現する。
NASAのベアリングデータセットで評価すると、チップの約80%は寿命の99%でシャットダウンすることができ、エネルギー効率は0.48pJ/OPとなる。
- 参考スコア(独自算出の注目度): 1.8594711725515676
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a low-power anomaly detection integrated circuit
(ADIC) based on a one-class classifier (OCC) neural network. The ADIC achieves
low-power operation through a combination of (a) careful choice of algorithm
for online learning and (b) approximate computing techniques to lower average
energy. In particular, online pseudoinverse update method (OPIUM) is used to
train a randomized neural network for quick and resource efficient learning. An
additional 42% energy saving can be achieved when a lighter version of OPIUM
method is used for training with the same number of data samples lead to no
significant compromise on the quality of inference. Instead of a single
classifier with large number of neurons, an ensemble of K base learner approach
is chosen to reduce learning memory by a factor of K. This also enables
approximate computing by dynamically varying the neural network size based on
anomaly detection. Fabricated in 65nm CMOS, the ADIC has K = 7 Base Learners
(BL) with 32 neurons in each BL and dissipates 11.87pJ/OP and 3.35pJ/OP during
learning and inference respectively at Vdd = 0.75V when all 7 BLs are enabled.
Further, evaluated on the NASA bearing dataset, approximately 80% of the chip
can be shut down for 99% of the lifetime leading to an energy efficiency of
0.48pJ/OP, an 18.5 times reduction over full-precision computing running at Vdd
= 1.2V throughout the lifetime.
- Abstract(参考訳): 本稿では,1クラス分類器(OCC)ニューラルネットワークに基づく低消費電力異常検出集積回路(ADIC)を提案する。
ADICは、組み合わせて低消費電力動作を実現する
(a)オンライン学習のためのアルゴリズムの慎重な選択
(b)平均エネルギーを下げるための近似計算技術。
特に、オンラインpseudominverse update method(opium)を使用してランダム化されたニューラルネットワークをトレーニングし、迅速かつリソース効率のよい学習を行う。
OPium法の軽量バージョンを同じデータサンプル数でトレーニングする場合、推論の品質に重大な妥協をもたらすことなく、さらに42%の省エネが達成できる。
多数のニューロンを持つ単一の分類器の代わりに、kベースの学習者アプローチのアンサンブルが選択され、学習メモリをk倍に削減する。また、異常検出に基づいてニューラルネットワークのサイズを動的に変化させることで、近似計算を可能にする。
65nmCMOSで作製されたADICは、各BLに32個のニューロンを持つK = 7ベースラーナー(BL)を有し、学習中にそれぞれ11.87pJ/OPと3.35pJ/OPをVdd = 0.75Vで放出する。
さらに、NASAの観測データから評価すると、チップの約80%は寿命の99%でシャットダウンできるため、エネルギー効率は0.48pJ/OPとなり、Vdd = 1.2Vでのフル精度計算よりも18.5倍削減される。
関連論文リスト
- Few-Shot Transfer Learning for Individualized Braking Intent Detection on Neuromorphic Hardware [0.21847754147782888]
本研究では、BrainChip上の畳み込みスパイクニューラルネットワーク(CSNN)をトレーニングし、実装するために、数発の転送学習手法の使用について検討する。
その結果、ニューロモルフィックハードウェアのエネルギー効率は97%以上低下し、レイテンシは1.3*しか増加しなかった。
論文 参考訳(メタデータ) (2024-07-21T15:35:46Z) - Branched Latent Neural Maps [0.0]
分岐潜在ニューラルネットワーク(BLNMs)は、複雑な物理過程をコードする有限次元の入出力マップを学習する。
BLNMは、小さなトレーニングデータセットと1つのプロセッサでの短いトレーニング時間で優れた一般化特性を示す。
オンラインフェーズでは、BLNMは単一のコアコンピュータ上での心臓電気生理学のリアルタイムシミュレーションを5000倍高速に行うことができる。
論文 参考訳(メタデータ) (2023-08-04T04:04:58Z) - Arrhythmia Classifier Based on Ultra-Lightweight Binary Neural Network [4.8083529516303924]
本稿では,ECG信号に基づく5クラス,17クラスの不整脈分類が可能な超軽量バイナリニューラルネットワークを提案する。
本モデルは17クラス分類において最適精度を達成し,エレガントにシンプルなネットワークアーキテクチャを有する。
我々の研究は、医療産業における軽量なディープラーニングモデルの可能性を示している。
論文 参考訳(メタデータ) (2023-04-04T06:47:54Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - Arrhythmia Classifier Using Convolutional Neural Network with Adaptive
Loss-aware Multi-bit Networks Quantization [4.8538839251819486]
メモリ消費を23.36倍に削減する高圧縮率を実現する1次元適応型ロスアウェア量子化を提案する。
我々は、MIT-BIHデータセットで訓練された17種類のリズムクラスを分類するために、17層のエンドツーエンドニューラルネットワーク分類器を提案する。
本研究は,ハードウェアフレンドリーで,ウェアラブルデバイスに展開可能な1次元畳み込みニューラルネットワークを実現する。
論文 参考訳(メタデータ) (2022-02-27T14:26:41Z) - SOUL: An Energy-Efficient Unsupervised Online Learning Seizure Detection
Classifier [68.8204255655161]
神経活動を記録して発作を検出するインプラントデバイスは、発作を抑えるために警告を発したり神経刺激を誘発したりするために採用されている。
移植可能な発作検出システムでは、低出力で最先端のオンライン学習アルゴリズムを使用して、神経信号のドリフトに動的に適応することができる。
SOULはTSMCの28nmプロセスで0.1mm2を占め、1.5nJ/分級エネルギー効率を実現した。
論文 参考訳(メタデータ) (2021-10-01T23:01:20Z) - A Modified Batch Intrinsic Plasticity Method for Pre-training the Random
Coefficients of Extreme Learning Machines [0.0]
極端な学習機械(elm)では、隠れ層係数はランダムに設定され固定され、ニューラルネットワークの出力層係数は最小二乗法で計算される。
ELMニューラルネットワークのランダム係数を事前学習するための改良型バッチ固有可塑性法(modBIP)を提案する。
論文 参考訳(メタデータ) (2021-03-14T21:23:46Z) - Learning Centric Power Allocation for Edge Intelligence [84.16832516799289]
分散データを収集し、エッジで機械学習を実行するエッジインテリジェンスが提案されている。
本稿では,経験的分類誤差モデルに基づいて無線リソースを割り当てるLCPA法を提案する。
実験の結果,提案したLCPAアルゴリズムは,他のパワーアロケーションアルゴリズムよりも有意に優れていた。
論文 参考訳(メタデータ) (2020-07-21T07:02:07Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - Self-Organized Operational Neural Networks with Generative Neurons [87.32169414230822]
ONNは、任意の非線型作用素をカプセル化できる一般化されたニューロンモデルを持つ異種ネットワークである。
我々は,各接続の結節演算子を適応(最適化)できる生成ニューロンを有する自己組織型ONN(Self-ONNs)を提案する。
論文 参考訳(メタデータ) (2020-04-24T14:37:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。