論文の概要: MINIMALIST: switched-capacitor circuits for efficient in-memory computation of gated recurrent units
- arxiv url: http://arxiv.org/abs/2505.08599v1
- Date: Tue, 13 May 2025 14:13:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 20:57:54.601977
- Title: MINIMALIST: switched-capacitor circuits for efficient in-memory computation of gated recurrent units
- Title(参考訳): MINIMALIST:ゲートリカレントユニットの効率的なインメモリ計算のためのスイッチトキャパシタ回路
- Authors: Sebastian Billaudelle, Laura Kriener, Filippo Moro, Tristan Torchet, Melika Payvand,
- Abstract要約: リカレントニューラルネットワーク(RNN)は、時間的シーケンスデータの処理における長年の候補である。
トレーニングパラダイムの最近の進歩は、今では新しい世代の効率的なRNNに影響を与えている。
最小ゲートリカレントユニット(GRU)に基づく合理化およびハードウェア互換アーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 0.4941855521192951
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recurrent neural networks (RNNs) have been a long-standing candidate for processing of temporal sequence data, especially in memory-constrained systems that one may find in embedded edge computing environments. Recent advances in training paradigms have now inspired new generations of efficient RNNs. We introduce a streamlined and hardware-compatible architecture based on minimal gated recurrent units (GRUs), and an accompanying efficient mixed-signal hardware implementation of the model. The proposed design leverages switched-capacitor circuits not only for in-memory computation (IMC), but also for the gated state updates. The mixed-signal cores rely solely on commodity circuits consisting of metal capacitors, transmission gates, and a clocked comparator, thus greatly facilitating scaling and transfer to other technology nodes. We benchmark the performance of our architecture on time series data, introducing all constraints required for a direct mapping to the hardware system. The direct compatibility is verified in mixed-signal simulations, reproducing data recorded from the software-only network model.
- Abstract(参考訳): リカレントニューラルネットワーク(RNN)は、特に組み込みエッジコンピューティング環境で見られるメモリ制限されたシステムにおいて、時間的シーケンスデータの処理において長年の候補となっている。
トレーニングパラダイムの最近の進歩は、今では新しい世代の効率的なRNNに影響を与えている。
本稿では,最小ゲートリカレントユニット(GRU)をベースとした合理化およびハードウェア互換アーキテクチャと,それに伴う高効率な混合信号ハードウェア実装を提案する。
提案設計では、インメモリ計算(IMC)だけでなく、ゲート状態更新にもスイッチトキャパシタ回路を利用する。
混合信号コアは、金属コンデンサ、トランスミッションゲート、クロックコンパレータからなるコモディティ回路のみに依存しており、他の技術ノードへのスケーリングと転送を非常に容易にしている。
我々は、時系列データに基づいてアーキテクチャの性能をベンチマークし、ハードウェアシステムへの直接マッピングに必要な制約をすべて導入する。
直接互換性は混合信号シミュレーションで検証され、ソフトウェアのみのネットワークモデルから記録されたデータを再生する。
関連論文リスト
- Co-design of a novel CMOS highly parallel, low-power, multi-chip neural network accelerator [0.0]
我々は,並列処理(>10X)を大幅に高速化し,消費電力を大幅に削減する新しい低消費電力ASICAIプロセッサであるNV-1を提案する。
結果のデバイスは、現在、フィールド化されたエッジセンサーアプリケーションで使用されている。
論文 参考訳(メタデータ) (2024-09-28T15:47:16Z) - Efficient and accurate neural field reconstruction using resistive memory [52.68088466453264]
デジタルコンピュータにおける従来の信号再構成手法は、ソフトウェアとハードウェアの両方の課題に直面している。
本稿では,スパース入力からの信号再構成のためのソフトウェア・ハードウェア協調最適化を用いた体系的アプローチを提案する。
この研究は、AI駆動の信号復元技術を進歩させ、将来の効率的で堅牢な医療AIと3Dビジョンアプリケーションへの道を開く。
論文 参考訳(メタデータ) (2024-04-15T09:33:09Z) - TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - CktGNN: Circuit Graph Neural Network for Electronic Design Automation [67.29634073660239]
本稿では,回路トポロジ生成とデバイスサイズを同時に行う回路グラフニューラルネットワーク(CktGNN)を提案する。
オープンサーキットベンチマーク(OCB: Open Circuit Benchmark)は、オープンソースのデータセットで、10ドル(約10万円)の異なるオペレーショナルアンプを含む。
我々の研究は、アナログ回路のための学習ベースのオープンソース設計自動化への道を開いた。
論文 参考訳(メタデータ) (2023-08-31T02:20:25Z) - Hybrid In-memory Computing Architecture for the Training of Deep Neural
Networks [5.050213408539571]
ハードウェアアクセラレータ上でのディープニューラルネットワーク(DNN)のトレーニングのためのハイブリッドインメモリコンピューティングアーキテクチャを提案する。
HICをベースとしたトレーニングでは,ベースラインに匹敵する精度を達成するために,推論モデルのサイズが約50%小さくなることを示す。
シミュレーションの結果,HICをベースとしたトレーニングにより,PCMの耐久限界のごく一部に,デバイスによる書き込みサイクルの回数を自然に確保できることがわかった。
論文 参考訳(メタデータ) (2021-02-10T05:26:27Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z) - CSM-NN: Current Source Model Based Logic Circuit Simulation -- A Neural
Network Approach [5.365198933008246]
CSM-NNは、最適化されたニューラルネットワーク構造と処理アルゴリズムを備えたスケーラブルなシミュレーションフレームワークである。
実験によると、CSM-NNはCPU上で動作する最先端のソースモデルベースのシミュレータと比較して、シミュレーション時間を最大6倍に短縮する。
CSM-NNはまた、HSPICEと比較して2%以下の誤差で高い精度のレベルを提供する。
論文 参考訳(メタデータ) (2020-02-13T00:29:44Z) - Near-Optimal Hardware Design for Convolutional Neural Networks [0.0]
本研究では,畳み込みニューラルネットワークのための新しい,特殊目的,高効率ハードウェアアーキテクチャを提案する。
提案アーキテクチャは,モデルの計算フローと同じ構造を持つ計算回路を設計することにより,乗算器の利用を最大化する。
提案するハードウェアアーキテクチャに基づく実装が,商用AI製品に適用されている。
論文 参考訳(メタデータ) (2020-02-06T09:15:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。