論文の概要: Using the IBM Analog In-Memory Hardware Acceleration Kit for Neural
Network Training and Inference
- arxiv url: http://arxiv.org/abs/2307.09357v2
- Date: Fri, 26 Jan 2024 10:36:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 18:11:23.774983
- Title: Using the IBM Analog In-Memory Hardware Acceleration Kit for Neural
Network Training and Inference
- Title(参考訳): IBM Analog In-Memory Hardware Acceleration Kitを用いたニューラルネットワークトレーニングと推論
- Authors: Manuel Le Gallo, Corey Lammie, Julian Buechel, Fabio Carta, Omobayode
Fagbohungbe, Charles Mackin, Hsinyu Tsai, Vijay Narayanan, Abu Sebastian,
Kaoutar El Maghraoui and Malte J. Rasch
- Abstract要約: このチュートリアルには、AIHWKitを使用して実行できる包括的なJupyter Notebookコード例が伴っている。
本稿では,AIHWKitの設計,機能,ベストプラクティスを詳細に記述し,推論とトレーニングを適切に行う。
我々はまた、完全に管理されたクラウド環境でAIHWKitシミュレーションを使用する利点を提供するプラットフォームであるAnalog AI Cloud Composerの概要を提示する。
- 参考スコア(独自算出の注目度): 1.8381945648605231
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Analog In-Memory Computing (AIMC) is a promising approach to reduce the
latency and energy consumption of Deep Neural Network (DNN) inference and
training. However, the noisy and non-linear device characteristics, and the
non-ideal peripheral circuitry in AIMC chips, require adapting DNNs to be
deployed on such hardware to achieve equivalent accuracy to digital computing.
In this tutorial, we provide a deep dive into how such adaptations can be
achieved and evaluated using the recently released IBM Analog Hardware
Acceleration Kit (AIHWKit), freely available at https://github.com/IBM/aihwkit.
The AIHWKit is a Python library that simulates inference and training of DNNs
using AIMC. We present an in-depth description of the AIHWKit design,
functionality, and best practices to properly perform inference and training.
We also present an overview of the Analog AI Cloud Composer, a platform that
provides the benefits of using the AIHWKit simulation in a fully managed cloud
setting along with physical AIMC hardware access, freely available at
https://aihw-composer.draco.res.ibm.com. Finally, we show examples on how users
can expand and customize AIHWKit for their own needs. This tutorial is
accompanied by comprehensive Jupyter Notebook code examples that can be run
using AIHWKit, which can be downloaded from
https://github.com/IBM/aihwkit/tree/master/notebooks/tutorial.
- Abstract(参考訳): Analog In-Memory Computing(AIMC)は、Deep Neural Network(DNN)推論とトレーニングのレイテンシとエネルギー消費を削減する、有望なアプローチである。
しかし、ノイズと非線形のデバイス特性とaimcチップの非理想周辺回路は、デジタルコンピューティングと同等の精度を達成するために、そのようなハードウェアにdnnを配置する必要がある。
このチュートリアルでは、最近リリースされたIBM Analog Hardware Acceleration Kit (AIHWKit)を使って、このような適応をどのように達成し、評価できるかを詳しく説明します。
AIHWKitは、AIMCを使用してDNNの推論とトレーニングをシミュレートするPythonライブラリである。
本稿では,AIHWKitの設計,機能,ベストプラクティスを詳細に記述し,推論とトレーニングを適切に行う。
私たちはまた、aihwkitシミュレーションをフルマネージドクラウド環境で使用する利点を提供するプラットフォームであるアナログai cloud composerの概要と、https://aihw-composer.draco.res.ibm.comで無償で利用可能な物理aimcハードウェアアクセスについても紹介します。
最後に、ユーザが自身のニーズに合わせてAIHWKitを拡張し、カスタマイズする方法の例を示す。
このチュートリアルには、AIHWKitを使用して実行できる包括的なJupyter Notebookコード例が付属している。
関連論文リスト
- AnalogNAS: A Neural Network Design Framework for Accurate Inference with
Analog In-Memory Computing [7.596833322764203]
エッジでの推論は低レイテンシ、コンパクト、電力効率のモデルを必要とする。
アナログ/混合信号インメモリコンピューティングハードウェアアクセラレータは、フォン・ノイマンアーキテクチャのメモリ壁を簡単に超越することができる。
本稿では,アナログインメモリコンピューティング(IMC)推論アクセラレータをターゲットとした,DNN(Deep Neural Network)自動設計のためのフレームワークであるAnalogNASを提案する。
論文 参考訳(メタデータ) (2023-05-17T07:39:14Z) - On-Device Training Under 256KB Memory [62.95579393237751]
本稿では,256KBのメモリでデバイス上でのトレーニングを可能にするアルゴリズム・システム協調設計フレームワークを提案する。
私たちのフレームワークは256KBと1MBのFlashで畳み込みニューラルネットワークのデバイス上での小さなトレーニングを可能にする最初のソリューションです。
論文 参考訳(メタデータ) (2022-06-30T17:59:08Z) - MAPLE-X: Latency Prediction with Explicit Microprocessor Prior Knowledge [87.41163540910854]
ディープニューラルネットワーク(DNN)レイテンシのキャラクタリゼーションは、時間を要するプロセスである。
ハードウェアデバイスの事前知識とDNNアーキテクチャのレイテンシを具体化し,MAPLEを拡張したMAPLE-Xを提案する。
論文 参考訳(メタデータ) (2022-05-25T11:08:20Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Quantization and Deployment of Deep Neural Networks on Microcontrollers [0.0]
この研究は、低消費電力32ビットマイクロコントローラへのディープニューラルネットワークの量子化と展開に焦点を当てている。
エンドツーエンドのディープニューラルネットワークトレーニング、量子化、デプロイメントのための新しいフレームワークが紹介されている。
単一精度32ビット浮動小数点と8ビットおよび16ビット整数上の固定点を用いた実行がサポートされている。
論文 参考訳(メタデータ) (2021-05-27T17:39:06Z) - A flexible and fast PyTorch toolkit for simulating training and
inference on analog crossbar arrays [0.4215938932388722]
我々はIBM Analog Hardware Acceleration Kitを紹介した。これはPyTorch内から便利な方法でアナログクロスバーアレイをシミュレートするオープンソースツールキットの、新しくて最初のものである。
ツールキットは、クロスバーアレイで実行される計算をキャプチャする「アナログタイル」の概念を中心にしています。
我々の新しいツールキットは完全にGPUを加速しており、任意のANNの精度に対する材料特性と将来のアナログ技術の非理想性の影響を便利に推定することができる。
論文 参考訳(メタデータ) (2021-04-05T22:59:35Z) - Nengo and low-power AI hardware for robust, embedded neurorobotics [6.574517227976925]
強靭で組込み型神経ロボティクスシステムを構築する上での4つの主要な課題を特定する。
我々は、Nengoを使用して、CPU、GPU、IntelのニューロモーフィックチップであるLoihi上で動作するニューラルネットワークを開発する2つの例を示す。
論文 参考訳(メタデータ) (2020-07-20T16:17:27Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z) - DNN+NeuroSim V2.0: An End-to-End Benchmarking Framework for
Compute-in-Memory Accelerators for On-chip Training [4.555081317066413]
NeuroSimは、ディープニューラルネットワークのための計算メモリ(CIM)アクセラレータをベンチマークするための統合フレームワークである。
pythonラッパーはNeuroSimと一般的な機械学習プラットフォームであるPytorchとをインターフェースするために開発されている。
論文 参考訳(メタデータ) (2020-03-13T20:20:42Z) - Neural Network Compression Framework for fast model inference [59.65531492759006]
我々は、ニューラルネットワーク圧縮フレームワーク(NNCF)と呼ばれる、微調整によるニューラルネットワーク圧縮のための新しいフレームワークを提案する。
様々なネットワーク圧縮手法の最近の進歩を活用し、空間性、量子化、双項化などのいくつかの実装を行っている。
フレームワークは、トレーニングサンプル内に提供され、あるいは既存のトレーニングコードにシームレスに統合可能なスタンドアロンパッケージとして使用することができる。
論文 参考訳(メタデータ) (2020-02-20T11:24:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。