論文の概要: Plasticity-Enhanced Domain-Wall MTJ Neural Networks for Energy-Efficient
Online Learning
- arxiv url: http://arxiv.org/abs/2003.02357v1
- Date: Wed, 4 Mar 2020 22:45:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 12:15:28.422576
- Title: Plasticity-Enhanced Domain-Wall MTJ Neural Networks for Energy-Efficient
Online Learning
- Title(参考訳): エネルギー効率の良いオンライン学習のための塑性強化ドメインウォールMTJニューラルネットワーク
- Authors: Christopher H. Bennett, T. Patrick Xiao, Can Cui, Naimul Hassan,
Otitoaleke G. Akinola, Jean Anne C. Incorvia, Alvaro Velasquez, Joseph S.
Friedman, and Matthew J. Marinella
- Abstract要約: 有望な不揮発性メモリデバイスである磁壁磁気トンネル接合(DW-MTJ)によって実現された多段階学習システムについて示す。
この装置の物理的特性と神経科学に触発された可塑性学習ルールの最適実装の相互作用を実証する。
私たちのエネルギー分析は、一般的に機械学習で使用される大きなタスクであっても、学習予算が20ドル以下であることから、このアプローチの価値を確認します。
- 参考スコア(独自算出の注目度): 9.481629586734497
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning implements backpropagation via abundant training samples. We
demonstrate a multi-stage learning system realized by a promising non-volatile
memory device, the domain-wall magnetic tunnel junction (DW-MTJ). The system
consists of unsupervised (clustering) as well as supervised sub-systems, and
generalizes quickly (with few samples). We demonstrate interactions between
physical properties of this device and optimal implementation of
neuroscience-inspired plasticity learning rules, and highlight performance on a
suite of tasks. Our energy analysis confirms the value of the approach, as the
learning budget stays below 20 $\mu J$ even for large tasks used typically in
machine learning.
- Abstract(参考訳): 機械学習は豊富なトレーニングサンプルを通じてバックプロパゲーションを実装する。
有望な不揮発性メモリデバイスであるドメインウォール磁気トンネル接合(dw-mtj)によって実現される多段階学習システムを示す。
このシステムは、教師なし(クラスタリング)と教師なしのサブシステムで構成され、すぐに一般化する(サンプルはほとんどない)。
本装置の物理的特性と神経科学に触発された可塑性学習ルールの最適実装との相互作用を実証し,一連のタスクにおける性能を強調する。
私たちのエネルギー分析は、機械学習で通常使われる大規模なタスクであっても、学習予算が20ドル以下であることから、このアプローチの価値を確認します。
関連論文リスト
- Training all-mechanical neural networks for task learning through in situ backpropagation [1.3812010983144802]
In situバックプロパゲーションのメカニカルアナログを導入し、メカニカルニューラルネットワークの高度に効率的なトレーニングを可能にする。
勾配情報を用いて、動作学習と機械学習タスクのためのMNNのトレーニングの成功例を示す。
我々の発見は、機械機械学習ハードウェアと自律型自己学習教材システムへの道を開いた。
論文 参考訳(メタデータ) (2024-04-23T19:20:41Z) - Self-Supervised Learning with Generative Adversarial Networks for Electron Microscopy [0.0]
本稿では,自己教師付き事前学習が,下流タスクの高精度な微調整をいかに促進するかを示す。
我々は、電子顕微鏡の文脈において、下流の様々なタスクにまたがる自己教師型事前学習の汎用性を実証する。
論文 参考訳(メタデータ) (2024-02-28T12:25:01Z) - Neuro-mimetic Task-free Unsupervised Online Learning with Continual
Self-Organizing Maps [56.827895559823126]
自己組織化マップ(英: Self-organizing map、SOM)は、クラスタリングや次元減少によく用いられるニューラルネットワークモデルである。
低メモリ予算下でのオンライン教師なし学習が可能なSOM(連続SOM)の一般化を提案する。
MNIST, Kuzushiji-MNIST, Fashion-MNISTなどのベンチマークでは, ほぼ2倍の精度が得られた。
論文 参考訳(メタデータ) (2024-02-19T19:11:22Z) - Effective Intrusion Detection in Heterogeneous Internet-of-Things Networks via Ensemble Knowledge Distillation-based Federated Learning [52.6706505729803]
我々は、分散化された侵入検知システムの共有モデル(IDS)を協調訓練するために、フェデレートラーニング(FL)を導入する。
FLEKDは従来のモデル融合法よりも柔軟な凝集法を実現する。
実験の結果,提案手法は,速度と性能の両面で,局所訓練と従来のFLよりも優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:16:37Z) - Random resistive memory-based deep extreme point learning machine for
unified visual processing [67.51600474104171]
ハードウェア・ソフトウェア共同設計型, ランダム抵抗型メモリベース深部極点学習マシン(DEPLM)を提案する。
我々の共同設計システムは,従来のシステムと比較して,エネルギー効率の大幅な向上とトレーニングコストの削減を実現している。
論文 参考訳(メタデータ) (2023-12-14T09:46:16Z) - MultiIoT: Benchmarking Machine Learning for the Internet of Things [70.74131118309967]
次世代の機械学習システムは、物理的世界に対する知覚と相互作用に長けなければならない。
運動、熱、位置情報、深度、無線信号、ビデオ、オーディオからの知覚データは、物理環境の状態をモデル化するためにますます使われています。
既存の取り組みは、しばしば単一の感覚的モダリティまたは予測タスクに特化している。
本稿は、12のモダリティと8つの現実世界タスクから115万以上のサンプルを含む、これまでで最も拡張的で統一されたIoTベンチマークであるMultiIoTを提案する。
論文 参考訳(メタデータ) (2023-11-10T18:13:08Z) - Evolutionary Deep Nets for Non-Intrusive Load Monitoring [5.415995239349699]
非侵入負荷モニタリング(Non-Intrusive Load Monitoring, NILM)は、家庭内の個々の家電の電力消費を1つの集約単位で追跡するエネルギー効率モニタリング技術である。
ディープ・ラーニング・アプローチは、デグレゲーションを操作するために実装されている。
論文 参考訳(メタデータ) (2023-03-06T22:47:40Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - GEM: Group Enhanced Model for Learning Dynamical Control Systems [78.56159072162103]
サンプルベースの学習が可能な効果的なダイナミクスモデルを構築します。
リー代数ベクトル空間上のダイナミクスの学習は、直接状態遷移モデルを学ぶよりも効果的であることを示す。
この研究は、ダイナミクスの学習とリー群の性質の関連性を明らかにし、新たな研究の方向への扉を開く。
論文 参考訳(メタデータ) (2021-04-07T01:08:18Z) - Distributed Online Learning with Multiple Kernels [10.203602318836444]
マルチカーネル(DOMKL)を用いたプライバシ保護型分散オンライン学習フレームワークを提案する。
理論的には、T時間スロット上でのDOMKLは最適なサブ線形後悔を実現することができる。
提案するDOMKLの回帰および時系列予測タスクにおける有効性を検証する。
論文 参考訳(メタデータ) (2020-11-17T20:29:00Z) - Distributed Learning on Heterogeneous Resource-Constrained Devices [3.6187468775839373]
我々は、ローエンドからハイエンドまで多種多様なデバイスからなる分散システムを考える。
このような異種システムにおける分散学習を実現するための最初のアプローチを提案する。
このアプローチを適用すると、各デバイスは、その能力に適合するトポロジを備えたニューラルネットワーク(NN)を使用するが、これらのNNの一部は、同じトポロジを共有して、それらのパラメータを共同で学習することができる。
論文 参考訳(メタデータ) (2020-06-09T16:58:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。