論文の概要: TinyML: Analysis of Xtensa LX6 microprocessor for Neural Network
Applications by ESP32 SoC
- arxiv url: http://arxiv.org/abs/2106.10652v1
- Date: Sun, 20 Jun 2021 08:39:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-22 15:13:40.157122
- Title: TinyML: Analysis of Xtensa LX6 microprocessor for Neural Network
Applications by ESP32 SoC
- Title(参考訳): TinyML:ESP32 SoCによるニューラルネットワーク用Xtensa LX6マイクロプロセッサの解析
- Authors: Md Ziaul Haque Zim
- Abstract要約: ここ数年、マイクロコントローラ装置(Espressif ESP32)は小型/小型の機械学習(tinyML)タスクに使えるほど強力になった。
本研究の目的は,ニューラルネットワークアプリケーションを実行することで,Xtensaデュアルコア32ビットLX6マイクロプロセッサの速度を解析することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In recent decades, Machine Learning (ML) has become extremely important for
many computing applications. The pervasiveness of ultra-low-power embedded
devices such as ESP32 or ESP32 Cam with tiny Machine Learning (tinyML)
applications will enable the mass proliferation of Artificial Intelligent
powered Embedded IoT Devices. In the last few years, the microcontroller device
(Espressif ESP32) became powerful enough to be used for small/tiny machine
learning (tinyML) tasks. The ease of use of platforms like Arduino IDE,
MicroPython and TensorFlow Lite (TF) with tinyML application make it an
indispensable topic of research for mobile robotics, modern computer science
and electrical engineering. The goal of this paper is to analyze the speed of
the Xtensa dual core 32-bit LX6 microprocessor by running a neural network
application. The different number of inputs (9, 36, 144 and 576) inputted
through the different number of neurons in neural networks with one and two
hidden layers. Xtensa LX6 microprocessor has been analyzed because it comes
inside with Espressif ESP32 and ESP32 Cam which are very easy to use, plug and
play IoT device. In this paper speed of the Xtensa LX6 microprocessor in
feed-forward mode has been analyzed.
- Abstract(参考訳): 近年、機械学習(ml)は多くのコンピューティングアプリケーションで非常に重要になっている。
ESP32やESP32 Camのような、小さな機械学習(tinyML)アプリケーションによる超低消費電力の組み込みデバイスの普及は、人工知能搭載の組み込みIoTデバイスの大量増殖を可能にする。
ここ数年、マイクロコントローラ装置(Espressif ESP32)は小型/小型の機械学習(tinyML)タスクに使えるほど強力になった。
Arduino IDE、MicroPython、TensorFlow Lite(TF)などのプラットフォームを小さなMLアプリケーションで簡単に使えるようにすることで、モバイルロボティクス、現代のコンピュータ科学、電気工学の研究に欠かせないトピックとなっている。
本研究の目的は,ニューラルネットワークアプリケーションを実行することで,Xtensaデュアルコア32ビットLX6マイクロプロセッサの速度を分析することである。
異なる入力数(9,36,144,576)は1層と2層隠れたニューラルネットワークの異なるニューロン数を通して入力される。
Xtensa LX6マイクロプロセッサは、IoTデバイスの使用、プラグ、プレイが非常に容易なEspressif ESP32とESP32 Camの内部にあるため、分析されている。
本稿では,フィードフォワードモードにおけるXtensa LX6マイクロプロセッサの速度解析を行った。
関連論文リスト
- TinyissimoYOLO: A Quantized, Low-Memory Footprint, TinyML Object
Detection Network for Low Power Microcontrollers [1.2846479438896337]
本稿では,TinyissimoYOLOと呼ばれる,高フレキシブル,量子化,メモリ効率,超軽量な物体検出ネットワークを提案する。
畳み込みニューラルネットワークの重みを格納するための0.5MB未満のメモリで、ミリワットの電力領域におけるマイクロコントローラのオブジェクト検出を可能にすることを目的としている。
論文 参考訳(メタデータ) (2023-05-22T12:57:38Z) - Fast GraspNeXt: A Fast Self-Attention Neural Network Architecture for
Multi-task Learning in Computer Vision Tasks for Robotic Grasping on the Edge [80.88063189896718]
アーキテクチャと計算の複雑さが高いと、組み込みデバイスへのデプロイに適さない。
Fast GraspNeXtは、ロボットグルーピングのためのコンピュータビジョンタスクに埋め込まれたマルチタスク学習に適した、高速な自己認識型ニューラルネットワークアーキテクチャである。
論文 参考訳(メタデータ) (2023-04-21T18:07:14Z) - DeepGEMM: Accelerated Ultra Low-Precision Inference on CPU Architectures
using Lookup Tables [49.965024476651706]
DeepGEMMはSIMDハードウェア上で超高精度畳み込みニューラルネットワークを実行するためのルックアップテーブルベースのアプローチである。
実装は、x86プラットフォーム上で、対応する8ビット整数カーネルを最大1.74倍の性能で上回る。
論文 参考訳(メタデータ) (2023-04-18T15:13:10Z) - TinyReptile: TinyML with Federated Meta-Learning [9.618821589196624]
メタラーニングとオンラインラーニングにインスパイアされた,シンプルだが効率的なアルゴリズムであるTinyReptileを提案する。
Raspberry Pi 4とCortex-M4 MCUで256KBのRAMでTinyReptileをデモした。
論文 参考訳(メタデータ) (2023-04-11T13:11:10Z) - A review of TinyML [0.0]
TinyMLの組み込み機械学習の概念は、このような多様性を、通常のハイエンドアプローチからローエンドアプリケーションへと押し上げようとしている。
TinyMLは、機械学習、ソフトウェア、ハードウェアの統合において、急速に拡大する学際的なトピックである。
本稿では,TinyMLがいくつかの産業分野,その障害,その将来的な範囲にどのようなメリットをもたらすのかを考察する。
論文 参考訳(メタデータ) (2022-11-05T06:02:08Z) - Tiny Robot Learning: Challenges and Directions for Machine Learning in
Resource-Constrained Robots [57.27442333662654]
機械学習(ML)は、コンピュータシステムにまたがる普及したツールとなっている。
ティニー・ロボット・ラーニング(Tiny Robot Learning)とは、リソースに制約された低コストの自律ロボットにMLを配置する手法である。
小型ロボット学習は、サイズ、重量、面積、パワー(SWAP)の制約によって困難にさらされる。
本稿では,小型ロボットの学習空間を簡潔に調査し,重要な課題を詳述し,MLシステム設計における将来的な仕事の機会を提案する。
論文 参考訳(メタデータ) (2022-05-11T19:36:15Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - A TinyML Platform for On-Device Continual Learning with Quantized Latent
Replays [66.62377866022221]
Latent Replay-based Continual Learning (CL)技術は、原則としてオンライン、サーバレスの適応を可能にする。
10コアのFP32対応並列超低消費電力プロセッサをベースとした,エンドツーエンドCLのためのHW/SWプラットフォームを提案する。
これらの手法を組み合わせることで,64MB未満のメモリを用いて連続学習を実現することができることを示す。
論文 参考訳(メタデータ) (2021-10-20T11:01:23Z) - Quantization and Deployment of Deep Neural Networks on Microcontrollers [0.0]
この研究は、低消費電力32ビットマイクロコントローラへのディープニューラルネットワークの量子化と展開に焦点を当てている。
エンドツーエンドのディープニューラルネットワークトレーニング、量子化、デプロイメントのための新しいフレームワークが紹介されている。
単一精度32ビット浮動小数点と8ビットおよび16ビット整数上の固定点を用いた実行がサポートされている。
論文 参考訳(メタデータ) (2021-05-27T17:39:06Z) - TinyML for Ubiquitous Edge AI [0.0]
TinyMLは、極低電力域(mW範囲以下)で動作する組み込み(マイクロコントローラ駆動)デバイス上でのディープラーニングアルゴリズムの実現に重点を置いている。
TinyMLは、電力効率が高く、コンパクトなディープニューラルネットワークモデル、ソフトウェアフレームワークのサポート、組み込みハードウェアの設計における課題に対処する。
本報告では,この分野の拡大を導く主要な課題と技術的実現要因について論じる。
論文 参考訳(メタデータ) (2021-02-02T02:04:54Z) - MCUNet: Tiny Deep Learning on IoT Devices [62.752899523628066]
効率的なニューラルネットワーク(TinyNAS)と軽量推論エンジン(TinyEngine)を共同で設計するフレームワークを提案する。
TinyNASは、まず検索空間を最適化してリソース制約に適合させ、次に最適化された検索空間におけるネットワークアーキテクチャを専門化する、2段階のニューラルネットワーク検索アプローチを採用している。
TinyEngineは、階層的に最適化するのではなく、全体的なネットワークトポロジに従ってメモリスケジューリングを適応し、メモリ使用量を4.8倍削減する。
論文 参考訳(メタデータ) (2020-07-20T17:59:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。