論文の概要: Noise-injected analog Ising machines enable ultrafast statistical
sampling and machine learning
- arxiv url: http://arxiv.org/abs/2112.11534v1
- Date: Tue, 21 Dec 2021 21:33:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-24 01:17:35.837692
- Title: Noise-injected analog Ising machines enable ultrafast statistical
sampling and machine learning
- Title(参考訳): ノイズ注入型アナログイジングマシンは超高速統計サンプリングと機械学習を可能にする
- Authors: Fabian B\"ohm, Diego Alonso-Urquijo, Guy Verschaffelt, Guy Van der
Sande
- Abstract要約: アナログノイズを注入することで,Isingマシンを用いた超高速統計的サンプリングを実現する普遍的な概念を提案する。
光電子イジング装置を用いて、ボルツマン分布の正確なサンプリングに使用できることを示した。
We found that Ising machines can perform statistics sample order-of-magnitude than software-based methods。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ising machines are a promising non-von-Neumann computational concept for
neural network training and combinatorial optimization. However, while various
neural networks can be implemented with Ising machines, their inability to
perform fast statistical sampling makes them inefficient for training these
neural networks compared to digital computers. Here, we introduce a universal
concept to achieve ultrafast statistical sampling with Ising machines by
injecting analog noise. With an opto-electronic Ising machine, we demonstrate
that this can be used for accurate sampling of Boltzmann distributions and
unsupervised training of neural networks, with equal accuracy as software-based
training. Through simulations, we find that Ising machines can perform
statistical sampling orders-of-magnitudes faster than software-based methods.
This makes Ising machines into efficient tools for machine learning and other
applications beyond combinatorial optimization.
- Abstract(参考訳): Ising Machineは、ニューラルネットワークトレーニングと組合せ最適化のための有望な非ヴォン・ノイマン計算概念である。
しかし、Isingマシンで様々なニューラルネットワークを実装できるが、高速な統計的サンプリングを行うことができないため、デジタルコンピュータと比較してこれらのニューラルネットワークのトレーニングに非効率である。
本稿では,アナログノイズを注入することでIsingマシンを用いた超高速統計的サンプリングを実現する普遍的な概念を提案する。
光電子イジングマシンを用いて、ボルツマン分布の正確なサンプリングや、ニューラルネットワークの教師なしトレーニングに、ソフトウェアベースのトレーニングと同等の精度で使用できることを実証する。
シミュレーションにより,Isingマシンは,ソフトウェアに基づく手法よりも高速に,統計的サンプリング命令を実行できることがわかった。
これによりIsingマシンは、組合せ最適化を超えた機械学習やその他のアプリケーションのための効率的なツールになる。
関連論文リスト
- Training a multilayer dynamical spintronic network with standard machine learning tools to perform time series classification [0.9786690381850356]
本稿では,スピントロニック振動子を動的ニューロンとして用いたハードウェア上でのリカレントニューラルネットワークの実現を提案する。
9.83pm2.91%の精度でシーケンシャル桁分類タスクを解く。
論文 参考訳(メタデータ) (2024-08-05T21:12:12Z) - Synaptic Sampling of Neural Networks [0.14732811715354452]
本稿では,重みをBernoulliのコインフリップとして扱うことで,ニューラルネットワークを直接サンプリング可能にする,skANNテクニックについて説明する。
論文 参考訳(メタデータ) (2023-11-21T22:56:13Z) - Training an Ising Machine with Equilibrium Propagation [2.3848738964230023]
イジングマシンは結合スピンのイジングモデルのハードウェア実装である。
本研究では,Ising マシンを教師付きで訓練するための新しい手法を実証する。
私たちの発見は、AIのための有望なトレーニング可能なハードウェアプラットフォームとして、Ising Machineを確立しました。
論文 参考訳(メタデータ) (2023-05-22T15:40:01Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Continual learning autoencoder training for a particle-in-cell
simulation via streaming [52.77024349608834]
今後のエクサスケール時代は 次世代の物理シミュレーションを 高解像度で提供します
これらのシミュレーションは高解像度であり、ディスク上に大量のシミュレーションデータを格納することはほぼ不可能であるため、機械学習モデルのトレーニングに影響を与える。
この研究は、ディスク上のデータなしで、実行中のシミュレーションにニューラルネットワークを同時にトレーニングするアプローチを示す。
論文 参考訳(メタデータ) (2022-11-09T09:55:14Z) - Ps and Qs: Quantization-aware pruning for efficient low latency neural
network inference [56.24109486973292]
超低遅延アプリケーションのためのニューラルネットワークのトレーニング中の分級と量子化の相互作用を研究します。
量子化アウェアプルーニングは,タスクのプルーニングや量子化のみよりも計算効率のよいモデルであることが判明した。
論文 参考訳(メタデータ) (2021-02-22T19:00:05Z) - Learning Neural Network Subspaces [74.44457651546728]
近年の観測は,ニューラルネットワーク最適化の展望の理解を深めている。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
論文 参考訳(メタデータ) (2021-02-20T23:26:58Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z) - Training of mixed-signal optical convolutional neural network with
reduced quantization level [1.3381749415517021]
アナログ行列乗算加速器を用いた混合信号人工ニューラルネットワーク(ANN)は、高速化と電力効率の向上を実現することができる。
本稿では、アナログ信号の2種類の誤り、ランダムノイズ、決定論的誤り(歪み)を含む混合信号ANNの訓練方法について報告する。
その結果,提案手法で訓練した混合信号ANNは,理想量子化ステップの最大50%のノイズレベルで等価な分類精度が得られることがわかった。
論文 参考訳(メタデータ) (2020-08-20T20:46:22Z) - Einsum Networks: Fast and Scalable Learning of Tractable Probabilistic
Circuits [99.59941892183454]
我々は,PC用の新しい実装設計であるEinsum Networks (EiNets)を提案する。
中心となるのは、E EiNets は単一のモノリシックな einsum-operation に多数の算術演算を組み合わせている。
本稿では,PCにおける予測最大化(EM)の実装を,自動微分を利用した簡易化が可能であることを示す。
論文 参考訳(メタデータ) (2020-04-13T23:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。