論文の概要: Training a multilayer dynamical spintronic network with standard machine learning tools to perform time series classification
- arxiv url: http://arxiv.org/abs/2408.02835v1
- Date: Mon, 5 Aug 2024 21:12:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-07 15:28:57.203552
- Title: Training a multilayer dynamical spintronic network with standard machine learning tools to perform time series classification
- Title(参考訳): 標準機械学習ツールを用いた多層動的スピントロニクスネットワークの訓練と時系列分類
- Authors: Erwan Plouet, Dédalo Sanz-Hernández, Aymeric Vecchiola, Julie Grollier, Frank Mizrahi,
- Abstract要約: 本稿では,スピントロニック振動子を動的ニューロンとして用いたハードウェア上でのリカレントニューラルネットワークの実現を提案する。
9.83pm2.91%の精度でシーケンシャル桁分類タスクを解く。
- 参考スコア(独自算出の注目度): 0.9786690381850356
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ability to process time-series at low energy cost is critical for many applications. Recurrent neural network, which can perform such tasks, are computationally expensive when implementing in software on conventional computers. Here we propose to implement a recurrent neural network in hardware using spintronic oscillators as dynamical neurons. Using numerical simulations, we build a multi-layer network and demonstrate that we can use backpropagation through time (BPTT) and standard machine learning tools to train this network. Leveraging the transient dynamics of the spintronic oscillators, we solve the sequential digits classification task with $89.83\pm2.91~\%$ accuracy, as good as the equivalent software network. We devise guidelines on how to choose the time constant of the oscillators as well as hyper-parameters of the network to adapt to different input time scales.
- Abstract(参考訳): 低コストで時系列を処理できることは多くのアプリケーションにとって重要である。
このようなタスクを実行できるリカレントニューラルネットワークは、従来のコンピュータ上でソフトウェアを実装する場合、計算コストがかかる。
本稿では,スピントロニック振動子を動的ニューロンとして用いたハードウェア上でのリカレントニューラルネットワークを提案する。
数値シミュレーションを用いて,多層ネットワークを構築し,BPTT(back propagation through time)と標準機械学習ツールを用いてネットワークをトレーニングできることを実証する。
スピントロニック発振器の過渡ダイナミクスを活用して、シーケンシャル桁分類タスクを89.83\pm2.91~\%$精度で解く。
我々は、異なる入力時間スケールに対応するために、発振器の時間定数とネットワークのハイパーパラメータをどう選択するかのガイドラインを考案する。
関連論文リスト
- NEAR: A Training-Free Pre-Estimator of Machine Learning Model Performance [0.0]
我々は、トレーニングなしで最適なニューラルネットワークを特定するために、アクティベーションランク(NEAR)によるゼロコストプロキシネットワーク表現を提案する。
このネットワークスコアとNAS-Bench-101とNATS-Bench-SSS/TSSのモデル精度の最先端相関を実証した。
論文 参考訳(メタデータ) (2024-08-16T14:38:14Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Noise-injected analog Ising machines enable ultrafast statistical
sampling and machine learning [0.0]
アナログノイズを注入することで,Isingマシンを用いた超高速統計的サンプリングを実現する普遍的な概念を提案する。
光電子イジング装置を用いて、ボルツマン分布の正確なサンプリングに使用できることを示した。
We found that Ising machines can perform statistics sample order-of-magnitude than software-based methods。
論文 参考訳(メタデータ) (2021-12-21T21:33:45Z) - Ps and Qs: Quantization-aware pruning for efficient low latency neural
network inference [56.24109486973292]
超低遅延アプリケーションのためのニューラルネットワークのトレーニング中の分級と量子化の相互作用を研究します。
量子化アウェアプルーニングは,タスクのプルーニングや量子化のみよりも計算効率のよいモデルであることが判明した。
論文 参考訳(メタデータ) (2021-02-22T19:00:05Z) - Machine Learning Link Inference of Noisy Delay-coupled Networks with
Opto-Electronic Experimental Tests [1.0766846340954257]
我々は,時間遅延のあるネットワークリンクを推論する一般的な問題を解決するために,機械学習手法を考案した。
まず、未知のネットワークのダイナミクスを模倣するために、貯水池コンピューティングとして知られる機械学習システムを訓練する。
本研究では, 貯留層出力層のトレーニングパラメータを用いて未知のネットワーク構造の推定を導出する手法を定式化し, 検証する。
論文 参考訳(メタデータ) (2020-10-29T00:24:13Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z) - Training End-to-End Analog Neural Networks with Equilibrium Propagation [64.0476282000118]
本稿では,勾配降下による終端から終端までのアナログニューラルネットワークの学習法を提案する。
数学的には、アナログニューラルネットワークのクラス(非線形抵抗性ネットワークと呼ばれる)がエネルギーベースモデルであることが示される。
我々の研究は、オンチップ学習をサポートする、超高速でコンパクトで低消費電力のニューラルネットワークの新世代の開発を導くことができる。
論文 参考訳(メタデータ) (2020-06-02T23:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。