論文の概要: Hardware-Aware Model Design and Training of Silicon-based Analog Neural Networks
- arxiv url: http://arxiv.org/abs/2601.19905v1
- Date: Mon, 08 Dec 2025 10:11:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 02:03:42.125598
- Title: Hardware-Aware Model Design and Training of Silicon-based Analog Neural Networks
- Title(参考訳): シリコン系アナログニューラルネットワークのハードウェア・アウェアモデル設計と学習
- Authors: Giulio Filippeschi, Mirko Brazzini, Cristhopher Mosquera, Marco Lanuzza, Alessandro Catania, Sebastiano Strangio, Giuseppe Iannaccone,
- Abstract要約: 物理インフォームドハードウェア・アウェアモデルを用いてニューラルネットワークを再トレーニングすることにより、理想的なネットワークモデルの推論精度を完全に回復できることを示す。
これは、アナログニューラルネットワークの忠実性を改善するデフォルトオプションよりも、スケーラビリティと統合密度に有望である。
- 参考スコア(独自算出の注目度): 33.83993649730681
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Silicon-based analog neural networks physically embody the ideal neural network model in an approximate way. We show that by retraining the neural network using a physics-informed hardware-aware model one can fully recover the inference accuracy of the ideal network model even in the presence of significant non-idealities. This is way more promising for scalability and integration density than the default option of improving the fidelity of the analog neural network at the cost of significant energy, area, and design overhead, through extensive calibration and conservative analog design. We first present a physics-informed hardware-aware model for a time-domain vector-matrix multiplier implemented with single-transistor floating-gate memory cells that explicitly accounts for two dominant non-idealities of the physical implementation - capacitive crosstalk and bit-line voltage drop - and integrates seamlessly with modern deep-learning workflows. The model discretizes each operation into adaptive time slots, processes activation patterns in parallel, and accumulates their contributions to predict effective multiplier outputs. Using measurements from a 16x16 silicon array, we calibrate the model, show that crosstalk is layout-dependent and often dominant, and introduce an improved weight-extraction procedure that doubles signal-to-error ratio versus an ideal vector-matrix multiplier model. Finally, we show that by training silicon-based analog neural networks using an hardware-aware model in the forward pass we can recover the accuracy of the ideal software networks across three architectures -- custom MLP on low-resolution MNIST, LeNet-5 on MNIST, and a VGG-style CNN on CIFAR-10 - establishing a complete design-to-deployment workflow for time-domain analog neuromorphic chips.
- Abstract(参考訳): シリコンベースのアナログニューラルネットワークは、理想的なニューラルネットワークモデルを近似的に具現化している。
物理インフォームドハードウェア・アウェアモデルを用いてニューラルネットワークを再トレーニングすることにより、重要な非理想性が存在する場合でも、理想的なネットワークモデルの推論精度を完全に回復できることを示す。
これは、広範囲なキャリブレーションと保守的なアナログ設計を通じて、かなりのエネルギー、面積、設計オーバーヘッドを犠牲にしてアナログニューラルネットワークの忠実度を改善するというデフォルトオプションよりも、スケーラビリティと統合密度に有望である。
まず、単一トランジスタ浮動小数点ゲートメモリセルで実装された時間領域ベクトル行列乗算器のための物理インフォームドハードウェア・アウェア・モデルについて、物理実装における2つの非理想性 – 容量的クロストークとビット線電圧降下 – を明確に説明し、現代のディープラーニングワークフローとシームレスに統合する。
モデルは各操作を適応時間スロットに離散化し、アクティベーションパターンを並列に処理し、それらのコントリビューションを蓄積して効果的な乗算器出力を予測する。
16x16のシリコンアレイからの測定値を用いてモデルのキャリブレーションを行い、クロストークがレイアウトに依存しており、しばしば支配的であることを示す。
最後に,シリコンベースのアナログニューラルネットワークをフォワードパスでハードウェア認識モデルを用いてトレーニングすることにより,低解像度のMNIST上でのカスタムMLP,MNIST上でのLeNet-5,CIFAR-10上でのVGGスタイルのCNNという,3つのアーキテクチャにわたる理想的なソフトウェアネットワークの精度を回復できることを示す。
関連論文リスト
- Improving the Real-Data Driven Network Evaluation Model for Digital Twin Networks [0.2499907423888049]
デジタルツインネットワーク(DTN)技術は,自律型ネットワークの基礎技術として期待されている。
DTNは、クローズドループシステムにおいて、リアルタイムに収集されたデータに基づいてネットワークを運用およびシステム化できるという利点がある。
DTNの使用を最適化するために、さまざまなAI研究と標準化作業が進行中である。
論文 参考訳(メタデータ) (2024-05-14T09:55:03Z) - Auto-Train-Once: Controller Network Guided Automatic Network Pruning from Scratch [72.26822499434446]
オートトレインオース (Auto-Train-Once, ATO) は、DNNの計算コストと記憶コストを自動的に削減するために設計された、革新的なネットワークプルーニングアルゴリズムである。
総合的な収束解析と広範な実験を行い,本手法が様々なモデルアーキテクチャにおける最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2024-03-21T02:33:37Z) - Vertical Layering of Quantized Neural Networks for Heterogeneous
Inference [57.42762335081385]
量子化モデル全体を1つのモデルにカプセル化するための,ニューラルネットワーク重みの新しい垂直層表現について検討する。
理論的には、1つのモデルのトレーニングとメンテナンスのみを必要としながら、オンデマンドサービスの正確なネットワークを達成できます。
論文 参考訳(メタデータ) (2022-12-10T15:57:38Z) - NAR-Former: Neural Architecture Representation Learning towards Holistic
Attributes Prediction [37.357949900603295]
本稿では,属性の全体的推定に使用できるニューラルネットワーク表現モデルを提案する。
実験の結果,提案するフレームワークは,セルアーキテクチャとディープニューラルネットワーク全体の遅延特性と精度特性を予測できることがわかった。
論文 参考訳(メタデータ) (2022-11-15T10:15:21Z) - Real-time Neural-MPC: Deep Learning Model Predictive Control for
Quadrotors and Agile Robotic Platforms [59.03426963238452]
モデル予測制御パイプライン内の動的モデルとして,大規模で複雑なニューラルネットワークアーキテクチャを効率的に統合するフレームワークであるReal-time Neural MPCを提案する。
ニューラルネットワークを使わずに、最先端のMPCアプローチと比較して、位置追跡誤差を最大82%削減することで、実世界の問題に対する我々のフレームワークの実現可能性を示す。
論文 参考訳(メタデータ) (2022-03-15T09:38:15Z) - Neural net modeling of equilibria in NSTX-U [0.0]
我々は平衡モデルと形状制御モデルに関連する2つのニューラルネットワークを開発する。
ネットワークにはEFIT01再構成アルゴリズムでトレーニングされた自由境界均衡解法であるEqnetと、Gspert符号でトレーニングされたPertnetが含まれる。
本報告では,これらのモデルが閉ループシミュレーションで確実に使用できることを示す。
論文 参考訳(メタデータ) (2022-02-28T16:09:58Z) - NL-CNN: A Resources-Constrained Deep Learning Model based on Nonlinear
Convolution [0.0]
NL-CNNと略される新しい畳み込みニューラルネットワークモデルが提案され、非線型畳み込みは畳み込み+非線形性層のカスケードでエミュレートされる。
いくつかの広く知られているデータセットのパフォーマンス評価が提供され、いくつかの関連する特徴を示している。
論文 参考訳(メタデータ) (2021-01-30T13:38:42Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。