論文の概要: One-step regression and classification with crosspoint resistive memory
arrays
- arxiv url: http://arxiv.org/abs/2005.01988v1
- Date: Tue, 5 May 2020 08:00:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 13:39:58.134554
- Title: One-step regression and classification with crosspoint resistive memory
arrays
- Title(参考訳): クロスポイント抵抗メモリアレイを用いた一段階回帰と分類
- Authors: Zhong Sun, Giacomo Pedretti, Alessandro Bricalli, Daniele Ielmini
- Abstract要約: 高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
- 参考スコア(独自算出の注目度): 62.997667081978825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning has been getting a large attention in the recent years, as a
tool to process big data generated by ubiquitous sensors in our daily life.
High speed, low energy computing machines are in demand to enable real-time
artificial intelligence at the edge, i.e., without the support of a remote
frame server in the cloud. Such requirements challenge the complementary
metal-oxide-semiconductor (CMOS) technology, which is limited by the Moore's
law approaching its end and the communication bottleneck in conventional
computing architecture. Novel computing concepts, architectures and devices are
thus strongly needed to accelerate data-intensive applications. Here we show a
crosspoint resistive memory circuit with feedback configuration can execute
linear regression and logistic regression in just one step by computing the
pseudoinverse matrix of the data within the memory. The most elementary
learning operation, that is the regression of a sequence of data and the
classification of a set of data, can thus be executed in one single
computational step by the novel technology. One-step learning is further
supported by simulations of the prediction of the cost of a house in Boston and
the training of a 2-layer neural network for MNIST digit recognition. The
results are all obtained in one computational step, thanks to the physical,
parallel, and analog computing within the crosspoint array.
- Abstract(参考訳): 機械学習は、私たちの日常生活でユビキタスセンサーによって生成されるビッグデータを処理するツールとして、近年注目を集めている。
高速で低エネルギーのコンピューティングマシンが、クラウド上のリモートフレームサーバを使わずに、エッジでリアルタイムの人工知能を実現するために求められている。
このような要件は、ムーアの法則が従来の計算アーキテクチャの終端と通信ボトルネックに近づくことで制限される金属酸化物半導体(CMOS)技術に挑戦する。
したがって、データ集約型アプリケーションを高速化するためには、新しいコンピューティング概念、アーキテクチャ、デバイスが強く必要である。
ここで、フィードバック構成のクロスポイント抵抗メモリ回路は、メモリ内のデータの擬似逆行列を演算することにより、線形回帰とロジスティック回帰を1ステップで実行できることを示す。
これにより、データ列の回帰とデータの集合の分類である最も初等的な学習操作を、新しい技術によって1つの計算ステップで実行することができる。
ワンステップ学習は、ボストンの住宅コストの予測と、mnist桁認識のための2層ニューラルネットワークのトレーニングのシミュレーションによってさらに支持されている。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
関連論文リスト
- Memory Is All You Need: An Overview of Compute-in-Memory Architectures for Accelerating Large Language Model Inference [2.9302211589186244]
大規模言語モデル(LLM)は自然言語処理を変換し、機械が人間のようなテキストを生成し、意味のある会話を行うことを可能にする。
計算と記憶能力の発達はムーアの法則の廃止によってさらに悪化している。
コンピュート・イン・メモリ(CIM)技術は、メモリ内でアナログ計算を直接実行することにより、AI推論を加速するための有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-06-12T16:57:58Z) - Efficient and accurate neural field reconstruction using resistive memory [52.68088466453264]
デジタルコンピュータにおける従来の信号再構成手法は、ソフトウェアとハードウェアの両方の課題に直面している。
本稿では,スパース入力からの信号再構成のためのソフトウェア・ハードウェア協調最適化を用いた体系的アプローチを提案する。
この研究は、AI駆動の信号復元技術を進歩させ、将来の効率的で堅牢な医療AIと3Dビジョンアプリケーションへの道を開く。
論文 参考訳(メタデータ) (2024-04-15T09:33:09Z) - Resistive Memory-based Neural Differential Equation Solver for Score-based Diffusion Model [55.116403765330084]
スコアベースの拡散のような現在のAIGC法は、迅速性と効率性の点で依然として不足している。
スコアベース拡散のための時間連続型およびアナログ型インメモリ型ニューラル微分方程式解法を提案する。
我々は180nmの抵抗型メモリインメモリ・コンピューティング・マクロを用いて,我々の解を実験的に検証した。
論文 参考訳(メタデータ) (2024-04-08T16:34:35Z) - Pruning random resistive memory for optimizing analogue AI [54.21621702814583]
AIモデルは、エネルギー消費と環境持続可能性に前例のない課題を提示する。
有望な解決策の1つは、アナログコンピューティングを再考することである。
ここでは、構造的塑性に着想を得たエッジプルーニングを用いたユニバーサルソリューション、ソフトウェア・ハードウエアの共設計について報告する。
論文 参考訳(メタデータ) (2023-11-13T08:59:01Z) - A Deep Neural Network Deployment Based on Resistive Memory Accelerator
Simulation [0.0]
本研究の目的は、Resistive RAM(ReRAM)内でディープニューラルネットワーク(DNN)をトレーニングする過程を説明することである。
CrossSim APIは、ソリューションの正確性に影響を与える可能性のある要因を考慮して、ニューラルネットワークをシミュレートするように設計されている。
論文 参考訳(メタデータ) (2023-04-22T07:29:02Z) - A Co-design view of Compute in-Memory with Non-Volatile Elements for
Neural Networks [12.042322495445196]
次世代のコンピューティングハードウェアにおいて,コンピュート・イン・メモリがいかに重要な役割を果たすかを論じる。
非揮発性メモリベースのクロスバーアーキテクチャは、アナログプロセスを使用して行列ベクトル乗算演算を並列化するエンジンの心臓を形成する。
クロスバーアーキテクチャは、時にはニューロモルフィックアプローチと呼ばれ、将来のコンピュータにおいて重要なハードウェア要素となる。
論文 参考訳(メタデータ) (2022-06-03T15:59:46Z) - Pretraining Graph Neural Networks for few-shot Analog Circuit Modeling
and Design [68.1682448368636]
本稿では、新しい未知のトポロジや未知の予測タスクに適応可能な回路表現を学習するための教師付き事前学習手法を提案する。
異なる回路の変動位相構造に対処するため、各回路をグラフとして記述し、グラフニューラルネットワーク(GNN)を用いてノード埋め込みを学習する。
出力ノード電圧の予測における事前学習GNNは、新しい未知のトポロジや新しい回路レベル特性の予測に適応可能な学習表現を促進することができることを示す。
論文 参考訳(メタデータ) (2022-03-29T21:18:47Z) - Monolithic Silicon Photonic Architecture for Training Deep Neural
Networks with Direct Feedback Alignment [0.6501025489527172]
CMOS互換シリコンフォトニックアーキテクチャによって実現されたニューラルネットワークのオンチップトレーニングを提案する。
提案手法では,エラーのバックプロパゲーションではなく,エラーフィードバックを用いてニューラルネットワークをトレーニングする,直接フィードバックアライメントトレーニングアルゴリズムを用いる。
オンチップMAC演算結果を用いて,MNISTデータセットを用いたディープニューラルネットワークのトレーニング実験を行った。
論文 参考訳(メタデータ) (2021-11-12T18:31:51Z) - Hybrid In-memory Computing Architecture for the Training of Deep Neural
Networks [5.050213408539571]
ハードウェアアクセラレータ上でのディープニューラルネットワーク(DNN)のトレーニングのためのハイブリッドインメモリコンピューティングアーキテクチャを提案する。
HICをベースとしたトレーニングでは,ベースラインに匹敵する精度を達成するために,推論モデルのサイズが約50%小さくなることを示す。
シミュレーションの結果,HICをベースとしたトレーニングにより,PCMの耐久限界のごく一部に,デバイスによる書き込みサイクルの回数を自然に確保できることがわかった。
論文 参考訳(メタデータ) (2021-02-10T05:26:27Z) - Einsum Networks: Fast and Scalable Learning of Tractable Probabilistic
Circuits [99.59941892183454]
我々は,PC用の新しい実装設計であるEinsum Networks (EiNets)を提案する。
中心となるのは、E EiNets は単一のモノリシックな einsum-operation に多数の算術演算を組み合わせている。
本稿では,PCにおける予測最大化(EM)の実装を,自動微分を利用した簡易化が可能であることを示す。
論文 参考訳(メタデータ) (2020-04-13T23:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。