論文の概要: Deep-PowerX: A Deep Learning-Based Framework for Low-Power Approximate
Logic Synthesis
- arxiv url: http://arxiv.org/abs/2007.01465v1
- Date: Fri, 3 Jul 2020 02:47:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 06:14:38.173741
- Title: Deep-PowerX: A Deep Learning-Based Framework for Low-Power Approximate
Logic Synthesis
- Title(参考訳): Deep-PowerX:低消費電力近似論理合成のためのディープラーニングベースのフレームワーク
- Authors: Ghasem Pasandi and Mackenzie Peterson and Moises Herrera and Shahin
Nazarian and Massoud Pedram
- Abstract要約: 本稿では,Deep Learning, Approximate Computing, Low Power Designという3つの強力な技術を統合する。
深層学習の進歩を利用して、近似論理合成エンジンを誘導し、与えられたデジタルCMOS回路の動的消費電力を最小限に抑える。
- 参考スコア(独自算出の注目度): 4.125556028825251
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper aims at integrating three powerful techniques namely Deep
Learning, Approximate Computing, and Low Power Design into a strategy to
optimize logic at the synthesis level. We utilize advances in deep learning to
guide an approximate logic synthesis engine to minimize the dynamic power
consumption of a given digital CMOS circuit, subject to a predetermined error
rate at the primary outputs. Our framework, Deep-PowerX, focuses on replacing
or removing gates on a technology-mapped network and uses a Deep Neural Network
(DNN) to predict error rates at primary outputs of the circuit when a specific
part of the netlist is approximated. The primary goal of Deep-PowerX is to
reduce the dynamic power whereas area reduction serves as a secondary
objective. Using the said DNN, Deep-PowerX is able to reduce the exponential
time complexity of standard approximate logic synthesis to linear time.
Experiments are done on numerous open source benchmark circuits. Results show
significant reduction in power and area by up to 1.47 times and 1.43 times
compared to exact solutions and by up to 22% and 27% compared to
state-of-the-art approximate logic synthesis tools while having orders of
magnitudes lower run-time.
- Abstract(参考訳): 本稿では,Deep Learning, Approximate Computing, Low Power Designという3つの強力な技術を統合することを目的としている。
我々はディープラーニングの進歩を利用して近似論理合成エンジンを誘導し、所定のディジタルCMOS回路の動的消費電力を最小限に抑える。
我々のフレームワークであるDeep-PowerXは、テクノロジーマップされたネットワーク上のゲートの交換や削除に重点を置いており、Deep Neural Network (DNN) を用いて、ネットリストの特定の部分が近似されたときに回路の一次出力におけるエラー率を予測する。
deep-powerxの第一の目的はダイナミックパワーを減らすことであり、一方エリアの縮小は二次的な目的である。
このDNNを用いて、Deep-PowerXは標準近似論理合成の指数時間複雑性を線形時間に短縮することができる。
多数のオープンソースベンチマーク回路で実験が行われている。
その結果、正確な解に比べて電力と面積が最大1.47倍、正確な解が1.43倍、最先端の近似論理合成ツールと比較して最大22%と27%減少し、実行時間は桁違いに減少した。
関連論文リスト
- Convolutional Differentiable Logic Gate Networks [68.74313756770123]
本稿では,論理ゲートネットワークを微分緩和により直接学習する手法を提案する。
私たちはこのアイデアに基づいて、深い論理ゲートツリーの畳み込みと論理ORプーリングによってそれを拡張します。
CIFAR-10では、6100万の論理ゲートのみを使用して86.29%の精度を実現し、SOTAよりも29倍の精度で改善した。
論文 参考訳(メタデータ) (2024-11-07T14:12:00Z) - INVICTUS: Optimizing Boolean Logic Circuit Synthesis via Synergistic
Learning and Search [18.558280701880136]
最先端論理合成アルゴリズムは、多数の論理最小化を持つ。
INVICTUSは、以前に見られた設計のトレーニングデータセットに基づいて、論理最小化のシーケンスを生成する。
論文 参考訳(メタデータ) (2023-05-22T15:50:42Z) - Energy Efficient Hardware Acceleration of Neural Networks with
Power-of-Two Quantisation [0.0]
我々は、Zynq UltraScale + MPSoC ZCU104 FPGA上に実装されたPoT重みを持つハードウェアニューラルネットワークアクセラレーターが、均一量子化バージョンよりも少なくとも1.4x$のエネルギー効率を持つことを示す。
論文 参考訳(メタデータ) (2022-09-30T06:33:40Z) - Low-bit Shift Network for End-to-End Spoken Language Understanding [7.851607739211987]
本稿では,連続パラメータを低ビットの2値に量子化する2乗量子化法を提案する。
これにより、高価な乗算演算を除去し、低ビット重みを使用すれば計算の複雑さを低減できる。
論文 参考訳(メタデータ) (2022-07-15T14:34:22Z) - Intelligent Circuit Design and Implementation with Machine Learning [0.0]
幅広いチップ設計段階をカバーする複数の高速かつ正確な機械学習モデルを提示します。
完全に自動化されたパワーモデリングフレームワークであるAPOLLOを紹介します。
私はまた、早期のroutability予測のためにRouteNetを提示します。
論文 参考訳(メタデータ) (2022-06-07T06:17:52Z) - Braille Letter Reading: A Benchmark for Spatio-Temporal Pattern
Recognition on Neuromorphic Hardware [50.380319968947035]
近年の深層学習手法は,そのようなタスクにおいて精度が向上しているが,従来の組込みソリューションへの実装は依然として計算量が非常に高く,エネルギーコストも高い。
文字読み込みによるエッジにおける触覚パターン認識のための新しいベンチマークを提案する。
フィードフォワードとリカレントスパイキングニューラルネットワーク(SNN)を、サロゲート勾配の時間によるバックプロパゲーションを用いてオフラインでトレーニングし比較し、効率的な推論のためにIntel Loihimorphicチップにデプロイした。
LSTMは14%の精度で繰り返しSNNより優れており、Loihi上での繰り返しSNNは237倍のエネルギーである。
論文 参考訳(メタデータ) (2022-05-30T14:30:45Z) - Credit Assignment in Neural Networks through Deep Feedback Control [59.14935871979047]
ディープフィードバックコントロール(Deep Feedback Control, DFC)は、フィードバックコントローラを使用して、望ましい出力ターゲットにマッチするディープニューラルネットワークを駆動し、クレジット割り当てに制御信号を使用する新しい学習方法である。
学習規則は空間と時間において完全に局所的であり、幅広い接続パターンに対するガウス・ニュートンの最適化を近似する。
さらに,DFCと皮質錐体ニューロンのマルチコンパートメントモデルと,局所的な電圧依存性のシナプス可塑性規則を関連づける。
論文 参考訳(メタデータ) (2021-06-15T05:30:17Z) - Reinforcement Learning with External Knowledge by using Logical Neural
Networks [67.46162586940905]
論理ニューラルネットワーク(LNN)と呼ばれる最近のニューラルシンボリックフレームワークは、ニューラルネットワークとシンボリックロジックの両方のキープロパティを同時に提供することができる。
外部知識ソースからのモデルフリー強化学習を可能にする統合手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T12:34:59Z) - ALF: Autoencoder-based Low-rank Filter-sharing for Efficient
Convolutional Neural Networks [63.91384986073851]
オートエンコーダを用いた低ランクフィルタ共有技術(ALF)を提案する。
ALFは、ネットワークパラメータの70%、オペレーションの61%、実行時間の41%を削減し、精度の低下を最小限にしている。
論文 参考訳(メタデータ) (2020-07-27T09:01:22Z) - Neural Architecture Search For LF-MMI Trained Time Delay Neural Networks [61.76338096980383]
TDNN(State-of-the-the-art Factored Time delay Neural Network)の2種類のハイパーパラメータを自動的に学習するために、さまざまなニューラルネットワークサーチ(NAS)技術が使用されている。
DARTSメソッドはアーキテクチャ選択とLF-MMI(格子のないMMI)TDNNトレーニングを統合する。
300時間のSwitchboardコーパスで行われた実験では、自動構成システムはベースラインLF-MMI TDNNシステムより一貫して優れていることが示唆された。
論文 参考訳(メタデータ) (2020-07-17T08:32:11Z) - LogicNets: Co-Designed Neural Networks and Circuits for
Extreme-Throughput Applications [6.9276012494882835]
本稿では,高効率FPGA実装に直接マップするニューラルネットワークトポロジを設計する新しい手法を提案する。
その結果,低ビット化と疎結合化の両立により,論理深度が小さく,LUTコストが低い高速回路が実現された。
論文 参考訳(メタデータ) (2020-04-06T22:15:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。