論文の概要: A Novel ASIC Design Flow using Weight-Tunable Binary Neurons as Standard
Cells
- arxiv url: http://arxiv.org/abs/2204.08070v1
- Date: Sun, 17 Apr 2022 19:02:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-19 17:03:16.849556
- Title: A Novel ASIC Design Flow using Weight-Tunable Binary Neurons as Standard
Cells
- Title(参考訳): 重み付き2元ニューロンを標準細胞としたASIC設計フロー
- Authors: Ankit Wagle, Gian Singh, Sunil Khatri, Sarma Vrudhula
- Abstract要約: 本稿では、二元性ニューロン(パーセプトロン、しきい値論理ゲート)に対する混合信号回路と、そのような細胞をASICに自動的に埋め込む方法について述べる。
FTL(フラッシュしきい値論理)と呼ばれる二項ニューロンは、閾値電圧がニューロンの重みのプロキシとなるフローティングゲートまたはフラッシュトランジスタを使用する。
単一FTLセルの性能、パワー、面積は79.4%、消費電力は61.6%、動作速度は従来のCMOSロジックと比べより速い(40.3%)。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we describe a design of a mixed signal circuit for a binary
neuron (a.k.a perceptron, threshold logic gate) and a methodology for
automatically embedding such cells in ASICs. The binary neuron, referred to as
an FTL (flash threshold logic) uses floating gate or flash transistors whose
threshold voltages serve as a proxy for the weights of the neuron. Algorithms
for mapping the weights to the flash transistor threshold voltages are
presented. The threshold voltages are determined to maximize both the
robustness of the cell and its speed. The performance, power, and area of a
single FTL cell are shown to be significantly smaller (79.4%), consume less
power (61.6%), and operate faster (40.3%) compared to conventional CMOS logic
equivalents. Also included are the architecture and the algorithms to program
the flash devices of an FTL. The FTL cells are implemented as standard cells,
and are designed to allow commercial synthesis and P&R tools to automatically
use them in synthesis of ASICs. Substantial reductions in area and power
without sacrificing performance are demonstrated on several ASIC benchmarks by
the automatic embedding of FTL cells. The paper also demonstrates how FTL cells
can be used for fixing timing errors after fabrication.
- Abstract(参考訳): 本稿では、二元ニューロン(パーセプトロン、しきい値論理ゲート)のための混合信号回路の設計と、そのようなセルをASICに自動的に埋め込む方法について述べる。
FTL(フラッシュしきい値論理)と呼ばれる二項ニューロンは、閾値電圧がニューロンの重みのプロキシとなるフローティングゲートまたはフラッシュトランジスタを使用する。
重みをフラッシュトランジスタしきい値電圧にマッピングするアルゴリズムを示す。
閾値電圧は、セルのロバスト性とその速度の両方を最大化するために決定される。
単一のftlセルの性能、電力および面積は、従来のcmos論理のそれに比べて大幅に小さく(79.4%)、消費電力が低く(61.6%)、動作速度が40.3%速くなっている。
また、FTLのフラッシュデバイスをプログラムするアーキテクチャやアルゴリズムも含まれている。
FTL細胞は標準細胞として実装されており、市販の合成とP&RツールがASICの合成に自動的に使用できるように設計されている。
FTLセルの自動埋込みによるいくつかのASICベンチマークにおいて, 性能を犠牲にすることなく, 面積と電力の実質的低減を実証した。
また、FTL細胞が製造後のタイミング誤差の修正にどのように使えるかを示す。
関連論文リスト
- Enhancing Energy-efficiency by Solving the Throughput Bottleneck of LSTM
Cells for Embedded FPGAs [22.293462679874008]
本研究は,エンドデバイス上でのエネルギー効率を考慮した新しいLSTMセル最適化を提案する。
少なくとも5.4$times$高速スループットと1.37$times$既存の手法よりもエネルギー効率が高い。
論文 参考訳(メタデータ) (2023-10-04T08:42:10Z) - CktGNN: Circuit Graph Neural Network for Electronic Design Automation [67.29634073660239]
本稿では,回路トポロジ生成とデバイスサイズを同時に行う回路グラフニューラルネットワーク(CktGNN)を提案する。
オープンサーキットベンチマーク(OCB: Open Circuit Benchmark)は、オープンソースのデータセットで、10ドル(約10万円)の異なるオペレーショナルアンプを含む。
我々の研究は、アナログ回路のための学習ベースのオープンソース設計自動化への道を開いた。
論文 参考訳(メタデータ) (2023-08-31T02:20:25Z) - A Novel Fault-Tolerant Logic Style with Self-Checking Capability [0.0]
本稿では,論理レベルでハードウェアの信頼性を高めるための自己チェック機能を備えた新しい論理形式を提案する。
提案した論理セルは2レールのインプット/アウトプットを持ち,出力の各レールの機能は耐故障性回路の構築を可能にする。
論文 参考訳(メタデータ) (2023-05-31T12:21:53Z) - Biomembrane-based Memcapacitive Reservoir Computing System for Energy
Efficient Temporal Data Processing [0.0]
貯留層コンピューティングは、時間データを処理するための非常に効率的な機械学習フレームワークである。
ここでは, 揮発性生体膜を用いた膜キャパシタを用いて, 短期シナプス可塑性機能を貯水池として密に再現する。
本システムは,2次非線形回帰タスクにおいて,音声桁分類の精度99.6%,正規化平均2乗誤差7.81*10-4を達成する。
論文 参考訳(メタデータ) (2023-05-19T22:36:20Z) - Firmware implementation of a recurrent neural network for the
computation of the energy deposited in the liquid argon calorimeter of the
ATLAS experiment [1.1343136452430205]
ATLAS検出器はLHCの高輝度化に先立って大幅にアップグレードされる。
ATLAS液体アルゴンカロリー計は、検出器内で電磁的に相互作用する粒子のエネルギーを測定する。
本稿では,RNN(Recurrent Neural Network)の実装について述べる。
論文 参考訳(メタデータ) (2023-02-15T09:46:02Z) - GNN4REL: Graph Neural Networks for Predicting Circuit Reliability
Degradation [7.650966670809372]
我々はグラフニューラルネットワーク(GNN)を用いて、プロセスの変動とデバイス老化が回路内の任意の経路の遅延に与える影響を正確に推定する。
GNN4RELは、工業用14nm計測データに対して校正されたFinFET技術モデルに基づいて訓練されている。
我々は、平均絶対誤差を0.01ポイントまで下げて、全経路(特に数秒以内)の遅延劣化をうまく見積もった。
論文 参考訳(メタデータ) (2022-08-04T20:09:12Z) - Braille Letter Reading: A Benchmark for Spatio-Temporal Pattern
Recognition on Neuromorphic Hardware [50.380319968947035]
近年の深層学習手法は,そのようなタスクにおいて精度が向上しているが,従来の組込みソリューションへの実装は依然として計算量が非常に高く,エネルギーコストも高い。
文字読み込みによるエッジにおける触覚パターン認識のための新しいベンチマークを提案する。
フィードフォワードとリカレントスパイキングニューラルネットワーク(SNN)を、サロゲート勾配の時間によるバックプロパゲーションを用いてオフラインでトレーニングし比較し、効率的な推論のためにIntel Loihimorphicチップにデプロイした。
LSTMは14%の精度で繰り返しSNNより優れており、Loihi上での繰り返しSNNは237倍のエネルギーである。
論文 参考訳(メタデータ) (2022-05-30T14:30:45Z) - Pretraining Graph Neural Networks for few-shot Analog Circuit Modeling
and Design [68.1682448368636]
本稿では、新しい未知のトポロジや未知の予測タスクに適応可能な回路表現を学習するための教師付き事前学習手法を提案する。
異なる回路の変動位相構造に対処するため、各回路をグラフとして記述し、グラフニューラルネットワーク(GNN)を用いてノード埋め込みを学習する。
出力ノード電圧の予測における事前学習GNNは、新しい未知のトポロジや新しい回路レベル特性の予測に適応可能な学習表現を促進することができることを示す。
論文 参考訳(メタデータ) (2022-03-29T21:18:47Z) - Block-Recurrent Transformers [49.07682696216708]
本稿では,逐次的にトランス層を適用するBlock-Recurrent Transformerを提案する。
我々のリカレントセルはシングルトークンではなくトークンブロック上で動作し、アクセルハードウェアを効率的に活用するためにブロック内の並列計算を利用する。
論文 参考訳(メタデータ) (2022-03-11T23:44:33Z) - Learning Bounded Context-Free-Grammar via LSTM and the
Transformer:Difference and Explanations [51.77000472945441]
Long Short-Term Memory (LSTM) と Transformer は、自然言語処理タスクに使用される2つの一般的なニューラルネットワークアーキテクチャである。
実際には、トランスフォーマーモデルの方がLSTMよりも表現力が高いことがよく見られる。
本研究では,LSTMとTransformerの実践的差異について検討し,その潜在空間分解パターンに基づく説明を提案する。
論文 参考訳(メタデータ) (2021-12-16T19:56:44Z) - Training End-to-End Analog Neural Networks with Equilibrium Propagation [64.0476282000118]
本稿では,勾配降下による終端から終端までのアナログニューラルネットワークの学習法を提案する。
数学的には、アナログニューラルネットワークのクラス(非線形抵抗性ネットワークと呼ばれる)がエネルギーベースモデルであることが示される。
我々の研究は、オンチップ学習をサポートする、超高速でコンパクトで低消費電力のニューラルネットワークの新世代の開発を導くことができる。
論文 参考訳(メタデータ) (2020-06-02T23:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。