論文の概要: Using the IBM Analog In-Memory Hardware Acceleration Kit for Neural
Network Training and Inference
- arxiv url: http://arxiv.org/abs/2307.09357v1
- Date: Tue, 18 Jul 2023 15:44:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-19 14:05:06.932936
- Title: Using the IBM Analog In-Memory Hardware Acceleration Kit for Neural
Network Training and Inference
- Title(参考訳): IBM Analog In-Memory Hardware Acceleration Kitを用いたニューラルネットワークトレーニングと推論
- Authors: Manuel Le Gallo, Corey Lammie, Julian Buechel, Fabio Carta, Omobayode
Fagbohungbe, Charles Mackin, Hsinyu Tsai, Vijay Narayanan, Abu Sebastian,
Kaoutar El Maghraoui and Malte J. Rasch
- Abstract要約: このチュートリアルには、AIHWKitを使用して実行できる包括的なJupyter Notebookコード例が伴っている。
AIHWKitは、Analog In-Memory Computing(AIMC)を使用したDeep Neural Network(DNN)推論とトレーニングをシミュレートするPythonライブラリである。
本稿では,AIHWKitの設計,機能,ベストプラクティスを詳細に記述し,推論とトレーニングを適切に行う。
- 参考スコア(独自算出の注目度): 1.6253509836661464
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Analog In-Memory Computing (AIMC) is a promising approach to reduce the
latency and energy consumption of Deep Neural Network (DNN) inference and
training. However, the noisy and non-linear device characteristics, and the
non-ideal peripheral circuitry in AIMC chips, require adapting DNNs to be
deployed on such hardware to achieve equivalent accuracy to digital computing.
In this tutorial, we provide a deep dive into how such adaptations can be
achieved and evaluated using the recently released IBM Analog Hardware
Acceleration Kit (AIHWKit), freely available at https://github.com/IBM/aihwkit.
The AIHWKit is a Python library that simulates inference and training of DNNs
using AIMC. We present an in-depth description of the AIHWKit design,
functionality, and best practices to properly perform inference and training.
We also present an overview of the Analog AI Cloud Composer, that provides the
benefits of using the AIHWKit simulation platform in a fully managed cloud
setting. Finally, we show examples on how users can expand and customize
AIHWKit for their own needs. This tutorial is accompanied by comprehensive
Jupyter Notebook code examples that can be run using AIHWKit, which can be
downloaded from https://github.com/IBM/aihwkit/tree/master/notebooks/tutorial.
- Abstract(参考訳): Analog In-Memory Computing(AIMC)は、Deep Neural Network(DNN)推論とトレーニングのレイテンシとエネルギー消費を削減する、有望なアプローチである。
しかし、ノイズと非線形のデバイス特性とaimcチップの非理想周辺回路は、デジタルコンピューティングと同等の精度を達成するために、そのようなハードウェアにdnnを配置する必要がある。
このチュートリアルでは、最近リリースされたIBM Analog Hardware Acceleration Kit (AIHWKit)を使って、このような適応をどのように達成し、評価できるかを詳しく説明します。
AIHWKitは、AIMCを使用してDNNの推論とトレーニングをシミュレートするPythonライブラリである。
本稿では,AIHWKitの設計,機能,ベストプラクティスを詳細に記述し,推論とトレーニングを適切に行う。
我々はまた、完全に管理されたクラウド環境でAIHWKitシミュレーションプラットフォームを使用することの利点を提供するAnalog AI Cloud Composerの概要を示す。
最後に、ユーザが自身のニーズに合わせてAIHWKitを拡張し、カスタマイズする方法の例を示す。
このチュートリアルには、AIHWKitを使用して実行できる包括的なJupyter Notebookコード例が付属している。
関連論文リスト
- AnalogNAS: A Neural Network Design Framework for Accurate Inference with
Analog In-Memory Computing [7.596833322764203]
エッジでの推論は低レイテンシ、コンパクト、電力効率のモデルを必要とする。
アナログ/混合信号インメモリコンピューティングハードウェアアクセラレータは、フォン・ノイマンアーキテクチャのメモリ壁を簡単に超越することができる。
本稿では,アナログインメモリコンピューティング(IMC)推論アクセラレータをターゲットとした,DNN(Deep Neural Network)自動設計のためのフレームワークであるAnalogNASを提案する。
論文 参考訳(メタデータ) (2023-05-17T07:39:14Z) - On-Device Training Under 256KB Memory [62.95579393237751]
本稿では,256KBのメモリでデバイス上でのトレーニングを可能にするアルゴリズム・システム協調設計フレームワークを提案する。
私たちのフレームワークは256KBと1MBのFlashで畳み込みニューラルネットワークのデバイス上での小さなトレーニングを可能にする最初のソリューションです。
論文 参考訳(メタデータ) (2022-06-30T17:59:08Z) - MAPLE-X: Latency Prediction with Explicit Microprocessor Prior Knowledge [87.41163540910854]
ディープニューラルネットワーク(DNN)レイテンシのキャラクタリゼーションは、時間を要するプロセスである。
ハードウェアデバイスの事前知識とDNNアーキテクチャのレイテンシを具体化し,MAPLEを拡張したMAPLE-Xを提案する。
論文 参考訳(メタデータ) (2022-05-25T11:08:20Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Quantization and Deployment of Deep Neural Networks on Microcontrollers [0.0]
この研究は、低消費電力32ビットマイクロコントローラへのディープニューラルネットワークの量子化と展開に焦点を当てている。
エンドツーエンドのディープニューラルネットワークトレーニング、量子化、デプロイメントのための新しいフレームワークが紹介されている。
単一精度32ビット浮動小数点と8ビットおよび16ビット整数上の固定点を用いた実行がサポートされている。
論文 参考訳(メタデータ) (2021-05-27T17:39:06Z) - A flexible and fast PyTorch toolkit for simulating training and
inference on analog crossbar arrays [0.4215938932388722]
我々はIBM Analog Hardware Acceleration Kitを紹介した。これはPyTorch内から便利な方法でアナログクロスバーアレイをシミュレートするオープンソースツールキットの、新しくて最初のものである。
ツールキットは、クロスバーアレイで実行される計算をキャプチャする「アナログタイル」の概念を中心にしています。
我々の新しいツールキットは完全にGPUを加速しており、任意のANNの精度に対する材料特性と将来のアナログ技術の非理想性の影響を便利に推定することができる。
論文 参考訳(メタデータ) (2021-04-05T22:59:35Z) - Nengo and low-power AI hardware for robust, embedded neurorobotics [6.574517227976925]
強靭で組込み型神経ロボティクスシステムを構築する上での4つの主要な課題を特定する。
我々は、Nengoを使用して、CPU、GPU、IntelのニューロモーフィックチップであるLoihi上で動作するニューラルネットワークを開発する2つの例を示す。
論文 参考訳(メタデータ) (2020-07-20T16:17:27Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z) - DNN+NeuroSim V2.0: An End-to-End Benchmarking Framework for
Compute-in-Memory Accelerators for On-chip Training [4.555081317066413]
NeuroSimは、ディープニューラルネットワークのための計算メモリ(CIM)アクセラレータをベンチマークするための統合フレームワークである。
pythonラッパーはNeuroSimと一般的な機械学習プラットフォームであるPytorchとをインターフェースするために開発されている。
論文 参考訳(メタデータ) (2020-03-13T20:20:42Z) - Neural Network Compression Framework for fast model inference [59.65531492759006]
我々は、ニューラルネットワーク圧縮フレームワーク(NNCF)と呼ばれる、微調整によるニューラルネットワーク圧縮のための新しいフレームワークを提案する。
様々なネットワーク圧縮手法の最近の進歩を活用し、空間性、量子化、双項化などのいくつかの実装を行っている。
フレームワークは、トレーニングサンプル内に提供され、あるいは既存のトレーニングコードにシームレスに統合可能なスタンドアロンパッケージとして使用することができる。
論文 参考訳(メタデータ) (2020-02-20T11:24:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。