論文の概要: OscNet v1.5: Energy Efficient Hopfield Network on CMOS Oscillators for Image Classification
- arxiv url: http://arxiv.org/abs/2506.12610v1
- Date: Sat, 14 Jun 2025 19:10:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:46.584064
- Title: OscNet v1.5: Energy Efficient Hopfield Network on CMOS Oscillators for Image Classification
- Title(参考訳): OscNet v1.5:イメージ分類のためのCMOSオシレータ上のエネルギー効率の良いホップフィールドネットワーク
- Authors: Wenxiao Cai, Zongru Li, Iris Wang, Yu-Neng Wang, Thomas H. Lee,
- Abstract要約: 我々は,OscNet上で実装可能なHopfield Networkベースの機械学習アルゴリズムを提案する。
ネットワークはフォワードプロパゲーションだけで訓練され、疎結合な重みを学習するが、精度は8%向上する。
OscNet v1.5は前進伝播のみに依存し、疎結合を採用しており、エネルギー効率のよい機械学習パイプラインとなっている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning has achieved remarkable advancements but at the cost of significant computational resources. This has created an urgent need for a novel and energy-efficient computational fabric. CMOS Oscillator Networks (OscNet) is a brain inspired and specially designed hardware for low energy consumption. In this paper, we propose a Hopfield Network based machine learning algorithm that can be implemented on OscNet. The network is trained using forward propagation alone to learn sparsely connected weights, yet achieves an 8% improvement in accuracy compared to conventional deep learning models on MNIST dataset. OscNet v1.5 achieves competitive accuracy on MNIST and is well-suited for implementation using CMOS-compatible ring oscillator arrays with SHIL. In oscillator-based implementation, we utilize only 24% of the connections used in a fully connected Hopfield network, with merely a 0.1% drop in accuracy. OscNet v1.5 relies solely on forward propagation and employs sparse connections, making it an energy-efficient machine learning pipeline designed for CMOS oscillator computing. The repository for OscNet family is: https://github.com/RussRobin/OscNet.
- Abstract(参考訳): 機械学習は目覚ましい進歩を遂げたが、かなりの計算資源を犠牲にしている。
これにより、新規でエネルギー効率の良い計算ファブリックが緊急に必要となる。
CMOS Oscillator Networks (OscNet) は、低エネルギー消費のための脳にインスパイアされ、特別に設計されたハードウェアである。
本稿では,OscNet上で実装可能なホップフィールドネットワークに基づく機械学習アルゴリズムを提案する。
ネットワークは、フォワードプロパゲーションのみを使用して、疎結合な重みを学習するが、従来のMNISTデータセットのディープラーニングモデルと比較して、精度は8%向上する。
OscNet v1.5はMNIST上での競合精度を実現し、 ShiL を用いたCMOS互換リング発振器アレイの実装に適している。
発振器ベースの実装では、完全に接続されたホップフィールドネットワークで使用される接続の24%しか利用せず、精度は0.1%しか低下しない。
OscNet v1.5は前方伝播のみに依存し、疎結合を採用しており、CMOS発振器コンピューティング用に設計されたエネルギー効率の高い機械学習パイプラインである。
OscNetファミリのリポジトリは、 https://github.com/RussRobin/OscNetである。
関連論文リスト
- OscNet: Machine Learning on CMOS Oscillator Networks [0.0]
我々はCMOSネットワーク(OscNet)上に実装された新しいエネルギー効率のよい機械学習フレームワークを提案する。
我々は、OscNetを用いて出生前脳の視覚系の発達過程をモデル化し、生物学的にインスパイアされたヘビアン規則に基づいて更新する。
実験の結果、OscNet上のHebbianの学習パイプラインは、従来の機械学習アルゴリズムに匹敵する、あるいは超えるパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-02-11T02:32:32Z) - On the Efficiency of Convolutional Neural Networks [0.0]
コブネットが使用する膨大な計算と相まって、ディープラーニングの研究者も効率性に興味を持つようになった。
単一カーネルにおける残差ブロックのすべての層を実装するために,ブロック融合アルゴリズムを考案した。
ブロック融合カーネルを用いたConvFirstモデルでは,演算の複雑さが小さく,計算効率が向上する。
論文 参考訳(メタデータ) (2024-04-04T17:39:41Z) - Training Spiking Neural Networks with Local Tandem Learning [96.32026780517097]
スパイキングニューラルネットワーク(SNN)は、前者よりも生物学的に可塑性でエネルギー効率が高いことが示されている。
本稿では,局所タンデム学習(Local Tandem Learning, LTL)と呼ばれる一般化学習規則を提案する。
CIFAR-10データセット上の5つのトレーニングエポック内に高速なネットワーク収束を示すとともに,計算複雑性が低い。
論文 参考訳(メタデータ) (2022-10-10T10:05:00Z) - LCS: Learning Compressible Subspaces for Adaptive Network Compression at
Inference Time [57.52251547365967]
本稿では,ニューラルネットワークの「圧縮可能な部分空間」を訓練する手法を提案する。
構造的・非構造的空間に対する推定時間における微粒な精度・効率のトレードオフを任意に達成するための結果を示す。
我々のアルゴリズムは、可変ビット幅での量子化にまで拡張し、個別に訓練されたネットワークと同等の精度を実現する。
論文 参考訳(メタデータ) (2021-10-08T17:03:34Z) - Broadcasted Residual Learning for Efficient Keyword Spotting [7.335747584353902]
モデルサイズと計算負荷を小さくして高精度な放送残差学習手法を提案する。
また,放送残差学習に基づく新しいネットワークアーキテクチャ,BC-Residual Network(BC-ResNet)を提案する。
BC-ResNetsは、Googleの音声コマンドデータセット v1 と v2 で、最先端の98.0% と98.7% のトップ-1 の精度をそれぞれ達成している。
論文 参考訳(メタデータ) (2021-06-08T06:55:39Z) - Adder Neural Networks [75.54239599016535]
我々は、ディープニューラルネットワークにおける大規模な乗算を交換するために、加算器ネットワーク(AdderNets)を提案する。
AdderNetsでは、フィルタと入力特徴の間の$ell_p$-norm距離を出力応答として取ります。
提案したAdderNetsは,ImageNetデータセット上でResNet-50を用いて,75.7%のTop-1精度92.3%のTop-5精度を達成可能であることを示す。
論文 参考訳(メタデータ) (2021-05-29T04:02:51Z) - AdderNet and its Minimalist Hardware Design for Energy-Efficient
Artificial Intelligence [111.09105910265154]
アドラー畳み込みニューラルネットワーク(AdderNet)を用いた新しいミニマリストハードウェアアーキテクチャを提案する。
AdderNet全体の16%の高速化を実現している。
我々は、AdderNetが他の競争相手を追い越せると結論付けている。
論文 参考訳(メタデータ) (2021-01-25T11:31:52Z) - Adjoined Networks: A Training Paradigm with Applications to Network
Compression [3.995047443480282]
本稿では、元のベースネットワークとより小さな圧縮ネットワークの両方を同時にトレーニングする学習パラダイムであるAdjoined Networks(AN)を紹介する。
ベースネットワークとしてResNet-50を使用すると、画像Netデータセット上の1.8Mパラメータと1.6GFLOPで71.8%のトップ-1の精度が達成される。
我々は,ニューラルネットワーク探索を用いて,より小さなネットワークの各レイヤの幅と重みを共同で学習し,ANを増強する訓練パラダイムであるDaniable Adjoined Networks (DAN)を提案する。
論文 参考訳(メタデータ) (2020-06-10T02:48:16Z) - AdderNet: Do We Really Need Multiplications in Deep Learning? [159.174891462064]
我々は、深層ニューラルネットワークにおける膨大な乗算を、計算コストを削減するためにはるかに安価な加算のために取引するための加算器ネットワーク(AdderNets)を提案する。
本稿では,AdderNets のバックプロパゲーション手法を提案する。
その結果、提案されたAdderNetsは、ImageNetデータセット上でResNet-50を使用して、74.9%のTop-1精度91.7%のTop-5精度を達成することができる。
論文 参考訳(メタデータ) (2019-12-31T06:56:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。