論文の概要: LB-CNN: An Open Source Framework for Fast Training of Light Binary
Convolutional Neural Networks using Chainer and Cupy
- arxiv url: http://arxiv.org/abs/2106.15350v1
- Date: Fri, 25 Jun 2021 09:40:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-30 15:31:57.882717
- Title: LB-CNN: An Open Source Framework for Fast Training of Light Binary
Convolutional Neural Networks using Chainer and Cupy
- Title(参考訳): LB-CNN:チェインとキューピーを用いた軽二元畳み込みニューラルネットワークの高速トレーニングのためのオープンソースフレームワーク
- Authors: Radu Dogaru, Ioana Dogaru
- Abstract要約: コンパクトLB-CNNの最適化フレームワークを導入し,その有効性を評価する。
最適化されたモデルは標準化された.h5形式で保存され、特殊なツールへの入力として使用することができる。
顔認識問題に対して、注意深く最適化されたLB-CNNモデルは、最大100%の精度を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Light binary convolutional neural networks (LB-CNN) are particularly useful
when implemented in low-energy computing platforms as required in many
industrial applications. Herein, a framework for optimizing compact LB-CNN is
introduced and its effectiveness is evaluated. The framework is freely
available and may run on free-access cloud platforms, thus requiring no major
investments. The optimized model is saved in the standardized .h5 format and
can be used as input to specialized tools for further deployment into specific
technologies, thus enabling the rapid development of various intelligent image
sensors. The main ingredient in accelerating the optimization of our model,
particularly the selection of binary convolution kernels, is the Chainer/Cupy
machine learning library offering significant speed-ups for training the output
layer as an extreme-learning machine. Additional training of the output layer
using Keras/Tensorflow is included, as it allows an increase in accuracy.
Results for widely used datasets including MNIST, GTSRB, ORL, VGG show very
good compromise between accuracy and complexity. Particularly, for face
recognition problems a carefully optimized LB-CNN model provides up to 100%
accuracies. Such TinyML solutions are well suited for industrial applications
requiring image recognition with low energy consumption.
- Abstract(参考訳): 軽量バイナリ畳み込みニューラルネットワーク(LB-CNN)は、多くの産業アプリケーションで必要とされる低エネルギーのコンピューティングプラットフォームで実装する場合、特に有用である。
本稿では,コンパクトLB-CNNの最適化フレームワークを導入し,その有効性を評価する。
このフレームワークは無償で利用可能であり、フリーアクセスのクラウドプラットフォームで動作する可能性がある。
最適化されたモデルは標準化された.h5形式で保存され、特定の技術へのさらなる展開のための特別なツールへの入力として使用できる。
モデル最適化,特にバイナリ畳み込みカーネルの選択を高速化する主な要素は,出力層を極端な学習機械として訓練するための大幅な高速化を提供するChainer/Cupy機械学習ライブラリである。
Keras/Tensorflowを使った出力層の追加トレーニングは、精度の向上を可能にするため含まれる。
MNIST, GTSRB, ORL, VGGなど, 広く使用されているデータセットの結果は, 精度と複雑性の間に非常に良い妥協点を示す。
特に顔認識問題では、慎重に最適化されたlb-cnnモデルが最大100%の精度を提供する。
このようなTinyMLソリューションは、低消費電力の画像認識を必要とする産業用途に適している。
関連論文リスト
- Spyx: A Library for Just-In-Time Compiled Optimization of Spiking Neural
Networks [0.08965418284317034]
Spiking Neural Networks(SNN)は、小さくて低消費電力なハードウェアフットプリントによるエネルギー効率の向上を提供する。
本稿では、JAXで設計された新しい軽量SNNシミュレーションおよび最適化ライブラリSpyxを紹介する。
論文 参考訳(メタデータ) (2024-02-29T09:46:44Z) - LitE-SNN: Designing Lightweight and Efficient Spiking Neural Network through Spatial-Temporal Compressive Network Search and Joint Optimization [48.41286573672824]
スパイキングニューラルネットワーク(SNN)は人間の脳の情報処理機構を模倣し、エネルギー効率が高い。
本稿では,空間圧縮と時間圧縮の両方を自動ネットワーク設計プロセスに組み込むLitE-SNNという新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-26T05:23:11Z) - Combining Multi-Objective Bayesian Optimization with Reinforcement Learning for TinyML [4.2019872499238256]
マルチオブジェクトベイズ最適化(MOBOpt)に基づくマイクロコントローラ(TinyML)にディープニューラルネットワークをデプロイするための新しい戦略を提案する。
本手法は,DNNの予測精度,メモリ消費量,計算複雑性のトレードオフを効率的に検出することを目的としている。
論文 参考訳(メタデータ) (2023-05-23T14:31:52Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - NL-CNN: A Resources-Constrained Deep Learning Model based on Nonlinear
Convolution [0.0]
NL-CNNと略される新しい畳み込みニューラルネットワークモデルが提案され、非線型畳み込みは畳み込み+非線形性層のカスケードでエミュレートされる。
いくつかの広く知られているデータセットのパフォーマンス評価が提供され、いくつかの関連する特徴を示している。
論文 参考訳(メタデータ) (2021-01-30T13:38:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。