論文の概要: Plasticity-Enhanced Domain-Wall MTJ Neural Networks for Energy-Efficient
Online Learning
- arxiv url: http://arxiv.org/abs/2003.02357v1
- Date: Wed, 4 Mar 2020 22:45:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 12:15:28.422576
- Title: Plasticity-Enhanced Domain-Wall MTJ Neural Networks for Energy-Efficient
Online Learning
- Title(参考訳): エネルギー効率の良いオンライン学習のための塑性強化ドメインウォールMTJニューラルネットワーク
- Authors: Christopher H. Bennett, T. Patrick Xiao, Can Cui, Naimul Hassan,
Otitoaleke G. Akinola, Jean Anne C. Incorvia, Alvaro Velasquez, Joseph S.
Friedman, and Matthew J. Marinella
- Abstract要約: 有望な不揮発性メモリデバイスである磁壁磁気トンネル接合(DW-MTJ)によって実現された多段階学習システムについて示す。
この装置の物理的特性と神経科学に触発された可塑性学習ルールの最適実装の相互作用を実証する。
私たちのエネルギー分析は、一般的に機械学習で使用される大きなタスクであっても、学習予算が20ドル以下であることから、このアプローチの価値を確認します。
- 参考スコア(独自算出の注目度): 9.481629586734497
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning implements backpropagation via abundant training samples. We
demonstrate a multi-stage learning system realized by a promising non-volatile
memory device, the domain-wall magnetic tunnel junction (DW-MTJ). The system
consists of unsupervised (clustering) as well as supervised sub-systems, and
generalizes quickly (with few samples). We demonstrate interactions between
physical properties of this device and optimal implementation of
neuroscience-inspired plasticity learning rules, and highlight performance on a
suite of tasks. Our energy analysis confirms the value of the approach, as the
learning budget stays below 20 $\mu J$ even for large tasks used typically in
machine learning.
- Abstract(参考訳): 機械学習は豊富なトレーニングサンプルを通じてバックプロパゲーションを実装する。
有望な不揮発性メモリデバイスであるドメインウォール磁気トンネル接合(dw-mtj)によって実現される多段階学習システムを示す。
このシステムは、教師なし(クラスタリング)と教師なしのサブシステムで構成され、すぐに一般化する(サンプルはほとんどない)。
本装置の物理的特性と神経科学に触発された可塑性学習ルールの最適実装との相互作用を実証し,一連のタスクにおける性能を強調する。
私たちのエネルギー分析は、機械学習で通常使われる大規模なタスクであっても、学習予算が20ドル以下であることから、このアプローチの価値を確認します。
関連論文リスト
- Single Neuromorphic Memristor closely Emulates Multiple Synaptic
Mechanisms for Energy Efficient Neural Networks [71.79257685917058]
我々はこれらのシナプス機能を本質的にエミュレートするSrTiO3に基づく膜状ナノデバイスを実証する。
これらのメムリスタは、安定かつエネルギー効率の良い運転を可能にする非定常低導電系で機能する。
論文 参考訳(メタデータ) (2024-02-26T15:01:54Z) - Neuro-mimetic Task-free Unsupervised Online Learning with Continual
Self-Organizing Maps [56.827895559823126]
自己組織化マップ(英: Self-organizing map、SOM)は、クラスタリングや次元減少によく用いられるニューラルネットワークモデルである。
低メモリ予算下でのオンライン教師なし学習が可能なSOM(連続SOM)の一般化を提案する。
MNIST, Kuzushiji-MNIST, Fashion-MNISTなどのベンチマークでは, ほぼ2倍の精度が得られた。
論文 参考訳(メタデータ) (2024-02-19T19:11:22Z) - Random resistive memory-based deep extreme point learning machine for
unified visual processing [67.51600474104171]
ハードウェア・ソフトウェア共同設計型, ランダム抵抗型メモリベース深部極点学習マシン(DEPLM)を提案する。
我々の共同設計システムは,従来のシステムと比較して,エネルギー効率の大幅な向上とトレーニングコストの削減を実現している。
論文 参考訳(メタデータ) (2023-12-14T09:46:16Z) - Evolutionary Deep Nets for Non-Intrusive Load Monitoring [5.415995239349699]
非侵入負荷モニタリング(Non-Intrusive Load Monitoring, NILM)は、家庭内の個々の家電の電力消費を1つの集約単位で追跡するエネルギー効率モニタリング技術である。
ディープ・ラーニング・アプローチは、デグレゲーションを操作するために実装されている。
論文 参考訳(メタデータ) (2023-03-06T22:47:40Z) - Scientific Computing with Diffractive Optical Neural Networks [2.580765958706854]
我々は、科学計算のための全光再構成可能DONNシステムの展開を数値的および実験的に実証した。
DONNシステムで処理可能な画像に分類入力特徴を変換するための普遍的特徴工学手法を開発した。
論文 参考訳(メタデータ) (2023-02-12T23:50:37Z) - Real-time Neural-MPC: Deep Learning Model Predictive Control for
Quadrotors and Agile Robotic Platforms [59.03426963238452]
モデル予測制御パイプライン内の動的モデルとして,大規模で複雑なニューラルネットワークアーキテクチャを効率的に統合するフレームワークであるReal-time Neural MPCを提案する。
ニューラルネットワークを使わずに、最先端のMPCアプローチと比較して、位置追跡誤差を最大82%削減することで、実世界の問題に対する我々のフレームワークの実現可能性を示す。
論文 参考訳(メタデータ) (2022-03-15T09:38:15Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - GEM: Group Enhanced Model for Learning Dynamical Control Systems [78.56159072162103]
サンプルベースの学習が可能な効果的なダイナミクスモデルを構築します。
リー代数ベクトル空間上のダイナミクスの学習は、直接状態遷移モデルを学ぶよりも効果的であることを示す。
この研究は、ダイナミクスの学習とリー群の性質の関連性を明らかにし、新たな研究の方向への扉を開く。
論文 参考訳(メタデータ) (2021-04-07T01:08:18Z) - Energy-Harvesting Distributed Machine Learning [38.5300206965018]
機械学習モデルが環境環境からエネルギーを回収できる多数のデバイス上で訓練される分散学習環境を考察する。
我々のフレームワークはスケーラブルで、エネルギー統計の局所的な推定しか必要とせず、広範囲の分散トレーニング設定に適用できる。
論文 参考訳(メタデータ) (2021-02-10T18:53:51Z) - Distributed Online Learning with Multiple Kernels [10.203602318836444]
マルチカーネル(DOMKL)を用いたプライバシ保護型分散オンライン学習フレームワークを提案する。
理論的には、T時間スロット上でのDOMKLは最適なサブ線形後悔を実現することができる。
提案するDOMKLの回帰および時系列予測タスクにおける有効性を検証する。
論文 参考訳(メタデータ) (2020-11-17T20:29:00Z) - Distributed Learning on Heterogeneous Resource-Constrained Devices [3.6187468775839373]
我々は、ローエンドからハイエンドまで多種多様なデバイスからなる分散システムを考える。
このような異種システムにおける分散学習を実現するための最初のアプローチを提案する。
このアプローチを適用すると、各デバイスは、その能力に適合するトポロジを備えたニューラルネットワーク(NN)を使用するが、これらのNNの一部は、同じトポロジを共有して、それらのパラメータを共同で学習することができる。
論文 参考訳(メタデータ) (2020-06-09T16:58:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。