論文の概要: Training Dynamical Binary Neural Networks with Equilibrium Propagation
- arxiv url: http://arxiv.org/abs/2103.08953v2
- Date: Mon, 19 Apr 2021 12:23:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-07 23:40:07.922469
- Title: Training Dynamical Binary Neural Networks with Equilibrium Propagation
- Title(参考訳): 平衡伝播を伴う動的二元ニューラルネットワークの訓練
- Authors: J\'er\'emie Laydevant, Maxence Ernoult, Damien Querlioz, Julie
Grollier
- Abstract要約: EPは2つのアクティベーションと重みで動的ネットワークをトレーニングできることを示す。
まず,MNIST 上の標準 EP で訓練された完全精度モデルと同等の精度で,二値重みと完全精度のアクティベーションを持つシステムを訓練する。
次に、本手法をMNIST上でのバイナリアクティベーションと重み付きモデルのトレーニングに拡張し、完全精度基準の1%以内の精度を達成する。
- 参考スコア(独自算出の注目度): 6.36588936481024
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Equilibrium Propagation (EP) is an algorithm intrinsically adapted to the
training of physical networks, thanks to the local updates of weights given by
the internal dynamics of the system. However, the construction of such a
hardware requires to make the algorithm compatible with existing neuromorphic
CMOS technologies, which generally exploit digital communication between
neurons and offer a limited amount of local memory. In this work, we
demonstrate that EP can train dynamical networks with binary activations and
weights. We first train systems with binary weights and full-precision
activations, achieving an accuracy equivalent to that of full-precision models
trained by standard EP on MNIST, and losing only 1.9% accuracy on CIFAR-10 with
equal architecture. We then extend our method to the training of models with
binary activations and weights on MNIST, achieving an accuracy within 1% of the
full-precision reference for fully connected architectures and reaching the
full-precision accuracy for convolutional architectures. Our extension of EP to
binary networks opens new solutions for on-chip learning and provides a compact
framework for training BNNs end-to-end with the same circuitry as for
inference.
- Abstract(参考訳): 平衡伝播(英: equilibrium propagation、ep)は、システムの内部ダイナミクスによって与えられる重みの局所的な更新により、物理的ネットワークのトレーニングに本質的に適応したアルゴリズムである。
しかし、そのようなハードウェアを構築するためには、アルゴリズムを既存のニューロモルフィックCMOS技術と互換性を持たせる必要がある。
本研究では,ep がバイナリアクティベーションと重み付けで動的ネットワークを訓練できることを実証する。
まず,MNIST 上での標準 EP で訓練された完全精度モデルと同等の精度を達成し,CIFAR-10 では1.9% の精度しか失わなかった。
次に,本手法を二元アクティベーションとmnist重みを持つモデルのトレーニングに拡張し,完全連結アーキテクチャの完全精度基準の1%以内の精度を達成し,畳み込みアーキテクチャの完全精度に到達した。
EPのバイナリネットワークへの拡張は、オンチップ学習のための新しいソリューションを開放し、推論と同じ回路でBNNをエンドツーエンドにトレーニングするためのコンパクトなフレームワークを提供する。
関連論文リスト
- Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Auto-Train-Once: Controller Network Guided Automatic Network Pruning from Scratch [72.26822499434446]
オートトレインオース (Auto-Train-Once, ATO) は、DNNの計算コストと記憶コストを自動的に削減するために設計された、革新的なネットワークプルーニングアルゴリズムである。
総合的な収束解析と広範な実験を行い,本手法が様々なモデルアーキテクチャにおける最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2024-03-21T02:33:37Z) - RLEEGNet: Integrating Brain-Computer Interfaces with Adaptive AI for
Intuitive Responsiveness and High-Accuracy Motor Imagery Classification [0.0]
本稿では,Deep Q-Networks (DQN) を用いた強化学習を分類タスクに活用するフレームワークを提案する。
本稿では,OVR(One-Versus-The-Rest)方式で,マルチクラス運動画像(MI)分類のための前処理手法を提案する。
DQNと1D-CNN-LSTMアーキテクチャの統合は意思決定プロセスをリアルタイムで最適化する。
論文 参考訳(メタデータ) (2024-02-09T02:03:13Z) - Analyzing and Improving the Training Dynamics of Diffusion Models [36.37845647984578]
一般的なADM拡散モデルアーキテクチャにおいて、不均一かつ非効率なトレーニングの原因をいくつか特定し、修正する。
この哲学の体系的な応用は、観測されたドリフトと不均衡を排除し、同じ計算複雑性でネットワークをかなり良くする。
論文 参考訳(メタデータ) (2023-12-05T11:55:47Z) - BiFSMNv2: Pushing Binary Neural Networks for Keyword Spotting to
Real-Network Performance [54.214426436283134]
Deep-FSMNのようなディープニューラルネットワークはキーワードスポッティング(KWS)アプリケーションのために広く研究されている。
我々は、KWS、すなわちBiFSMNv2のための強力で効率的なバイナリニューラルネットワークを提示し、それを実ネットワーク精度のパフォーマンスにプッシュする。
小型アーキテクチャと最適化されたハードウェアカーネルの利点により、BiFSMNv2は25.1倍のスピードアップと20.2倍のストレージ節約を実現できる。
論文 参考訳(メタデータ) (2022-11-13T18:31:45Z) - PulseDL-II: A System-on-Chip Neural Network Accelerator for Timing and
Energy Extraction of Nuclear Detector Signals [3.307097167756987]
本稿では,深層学習を持つパルスからイベント特徴(時間,エネルギーなど)を抽出するためのシステムオンチップ(SoC)であるPulseDL-IIを紹介する。
提案システムは, 47.4dBの信号対雑音比(SNR)において, オンラインニューラルネットワークを用いた60psの時間分解能と0.40%のエネルギー分解能を得た。
論文 参考訳(メタデータ) (2022-09-02T08:52:21Z) - LCS: Learning Compressible Subspaces for Adaptive Network Compression at
Inference Time [57.52251547365967]
本稿では,ニューラルネットワークの「圧縮可能な部分空間」を訓練する手法を提案する。
構造的・非構造的空間に対する推定時間における微粒な精度・効率のトレードオフを任意に達成するための結果を示す。
我々のアルゴリズムは、可変ビット幅での量子化にまで拡張し、個別に訓練されたネットワークと同等の精度を実現する。
論文 参考訳(メタデータ) (2021-10-08T17:03:34Z) - Low-Precision Training in Logarithmic Number System using Multiplicative
Weight Update [49.948082497688404]
大規模ディープニューラルネットワーク(DNN)のトレーニングは、現在かなりの量のエネルギーを必要としており、深刻な環境影響をもたらす。
エネルギーコストを削減するための有望なアプローチの1つは、DNNを低精度で表現することである。
対数数システム(LNS)と乗算重み更新訓練法(LNS-Madam)を併用した低精度トレーニングフレームワークを共同で設計する。
論文 参考訳(メタデータ) (2021-06-26T00:32:17Z) - Learning Neural Network Subspaces [74.44457651546728]
近年の観測は,ニューラルネットワーク最適化の展望の理解を深めている。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
論文 参考訳(メタデータ) (2021-02-20T23:26:58Z) - Hybrid In-memory Computing Architecture for the Training of Deep Neural
Networks [5.050213408539571]
ハードウェアアクセラレータ上でのディープニューラルネットワーク(DNN)のトレーニングのためのハイブリッドインメモリコンピューティングアーキテクチャを提案する。
HICをベースとしたトレーニングでは,ベースラインに匹敵する精度を達成するために,推論モデルのサイズが約50%小さくなることを示す。
シミュレーションの結果,HICをベースとしたトレーニングにより,PCMの耐久限界のごく一部に,デバイスによる書き込みサイクルの回数を自然に確保できることがわかった。
論文 参考訳(メタデータ) (2021-02-10T05:26:27Z) - Training Sparse Neural Networks using Compressed Sensing [13.84396596420605]
本研究では,プレニングとトレーニングを1ステップに組み合わせた圧縮センシングに基づく新しい手法の開発と試験を行う。
具体的には、トレーニング中の重みを適応的に重み付けした$ell1$のペナルティを利用して、スパースニューラルネットワークをトレーニングするために、正規化二重平均化(RDA)アルゴリズムの一般化と組み合わせる。
論文 参考訳(メタデータ) (2020-08-21T19:35:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。