論文の概要: DNN-Opt: An RL Inspired Optimization for Analog Circuit Sizing using
Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2110.00211v1
- Date: Fri, 1 Oct 2021 04:44:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-04 14:24:13.931076
- Title: DNN-Opt: An RL Inspired Optimization for Analog Circuit Sizing using
Deep Neural Networks
- Title(参考訳): DNN-Opt:ディープニューラルネットワークを用いたアナログ回路サイズ最適化
- Authors: Ahmet F. Budak, Prateek Bhansali, Bo Liu, Nan Sun, David Z. Pan,
Chandramouli V. Kashyap
- Abstract要約: 本稿では、アナログ回路サイズ化のための強化学習インスパイアされたディープニューラルネットワーク(DNN)に基づくブラックボックス最適化フレームワークを提案する。
我々の知る限りでは、DNNベースの回路サイズを産業規模の回路に適用するのはこれが初めてである。
- 参考スコア(独自算出の注目度): 8.594866288023036
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Analog circuit sizing takes a significant amount of manual effort in a
typical design cycle. With rapidly developing technology and tight schedules,
bringing automated solutions for sizing has attracted great attention. This
paper presents DNN-Opt, a Reinforcement Learning (RL) inspired Deep Neural
Network (DNN) based black-box optimization framework for analog circuit sizing.
The key contributions of this paper are a novel sample-efficient two-stage deep
learning optimization framework leveraging RL actor-critic algorithms, and a
recipe to extend it on large industrial circuits using critical device
identification. Our method shows 5--30x sample efficiency compared to other
black-box optimization methods both on small building blocks and on large
industrial circuits with better performance metrics. To the best of our
knowledge, this is the first application of DNN-based circuit sizing on
industrial scale circuits.
- Abstract(参考訳): アナログ回路サイズは、典型的な設計サイクルにおいてかなりの労力を要する。
急速な技術開発とスケジュールの厳格化により、サイズ自動化のソリューションが注目されている。
本稿では,拡張学習(rl)にインスパイアされたディープニューラルネットワーク(dnn)を用いた,アナログ回路サイズのためのブラックボックス最適化フレームワークであるdnn-optを提案する。
本稿の主な貢献は,RLアクター・クリティック・アルゴリズムを利用したサンプル効率のよい2段階深層学習最適化フレームワークと,重要なデバイス識別を用いて大規模産業用回路に拡張するためのレシピである。
提案手法は, 小型ビルディングブロックおよび大規模産業用回路におけるブラックボックス最適化手法と比較して, 5-30倍の効率性を示す。
我々の知る限りでは、DNNベースの回路サイズを産業規模の回路に適用するのはこれが初めてである。
関連論文リスト
- LEDRO: LLM-Enhanced Design Space Reduction and Optimization for Analog Circuits [5.055279645400405]
アナログ回路サイズの設計空間を反復的に洗練する最適化手法とともに,Large Language Models (LLMs) を用いたLEDROを導入する。
LEDROは、他のRLやBOベースラインと比較して非常に一般化可能であり、異なるトポロジや技術ノードの設計アノテーションやモデルトレーニングは不要である。
結果,LEDROは平均13%のFoM改善,2.15倍のOp-Amp,48%のFoM改善,1.7倍のOp-Ampを向上した。
論文 参考訳(メタデータ) (2024-11-19T23:43:25Z) - CktGNN: Circuit Graph Neural Network for Electronic Design Automation [67.29634073660239]
本稿では,回路トポロジ生成とデバイスサイズを同時に行う回路グラフニューラルネットワーク(CktGNN)を提案する。
オープンサーキットベンチマーク(OCB: Open Circuit Benchmark)は、オープンソースのデータセットで、10ドル(約10万円)の異なるオペレーショナルアンプを含む。
我々の研究は、アナログ回路のための学習ベースのオープンソース設計自動化への道を開いた。
論文 参考訳(メタデータ) (2023-08-31T02:20:25Z) - Graph Neural Network Autoencoders for Efficient Quantum Circuit
Optimisation [69.43216268165402]
我々は、量子回路の最適化にグラフニューラルネットワーク(GNN)オートエンコーダの使い方を初めて提示する。
我々は、量子回路から有向非巡回グラフを構築し、そのグラフを符号化し、その符号化を用いてRL状態を表現する。
我々の手法は、非常に大規模なRL量子回路最適化に向けた最初の現実的な第一歩である。
論文 参考訳(メタデータ) (2023-03-06T16:51:30Z) - Designing and Training of Lightweight Neural Networks on Edge Devices
using Early Halting in Knowledge Distillation [16.74710649245842]
本稿では,エッジデバイス上での軽量ディープニューラルネットワーク(DNN)の設計と訓練のための新しいアプローチを提案する。
このアプローチでは、利用可能なストレージ、処理速度、許容可能な最大処理時間を考慮する。
本稿では,ネットワーク資源を保存できる新しい早期停止手法を提案する。
論文 参考訳(メタデータ) (2022-09-30T16:18:24Z) - LKD-Net: Large Kernel Convolution Network for Single Image Dehazing [70.46392287128307]
本稿では,LKCB(Large Kernel Convolution Dehaze Block)とCEFN(Channel Enhanced Feed-forward Network)を組み合わせた新しいLKDブロックを提案する。
設計されたDLKCBは、大規模なカーネルの畳み込みを、大量のパラメータや計算オーバーヘッドを伴わずに、より小さな奥行きの畳み込みと奥行きの縮み込みに分割することができる。
我々のLKD-NetはTransformerベースのメソッドであるDehamerを1.79%の#Paramと48.9%のFLOPで劇的に上回っている。
論文 参考訳(メタデータ) (2022-09-05T06:56:48Z) - Recurrent Bilinear Optimization for Binary Neural Networks [58.972212365275595]
BNNは、実数値重みとスケールファクターの内在的双線型関係を無視している。
私たちの仕事は、双線形の観点からBNNを最適化する最初の試みです。
我々は、様々なモデルやデータセット上で最先端のBNNに対して印象的な性能を示す頑健なRBONNを得る。
論文 参考訳(メタデータ) (2022-09-04T06:45:33Z) - L2ight: Enabling On-Chip Learning for Optical Neural Networks via
Efficient in-situ Subspace Optimization [10.005026783940682]
シリコンフォトニクスベースの光ニューラルネットワーク(ONN)は、効率的なAIのパラダイムシフトを示す可能性のある、有望なハードウェアプラットフォームである。
そこで本研究では,スケーラブルなONNマッピングと効率的なin-situ学習を実現するための,閉ループONNオンチップ学習フレームワークL2ightを提案する。
論文 参考訳(メタデータ) (2021-10-27T22:53:47Z) - LoRD-Net: Unfolded Deep Detection Network with Low-Resolution Receivers [104.01415343139901]
本稿では,1ビット計測から情報シンボルを復元する「LoRD-Net」というディープ検出器を提案する。
LoRD-Netは、関心のシグナルを回復するためのタスクベースのアーキテクチャである。
無線通信における1ビット信号回復のためのレシーバアーキテクチャの評価を行った。
論文 参考訳(メタデータ) (2021-02-05T04:26:05Z) - Go Wide, Then Narrow: Efficient Training of Deep Thin Networks [62.26044348366186]
本稿では,深層ネットワークを理論的保証で訓練する効率的な手法を提案する。
我々の方法でのトレーニングにより、ResNet50はResNet101を上回り、BERT BaseはBERT Largeに匹敵する。
論文 参考訳(メタデータ) (2020-07-01T23:34:35Z) - GCN-RL Circuit Designer: Transferable Transistor Sizing with Graph
Neural Networks and Reinforcement Learning [19.91205976441355]
本稿では、強化学習(RL)を活用して、異なる技術ノードとトポロジ間で知識を伝達するGCN-RLサーキットデザイナを提案する。
学習に基づく最適化は、4つの異なる回路上で最高のメリット(FoM)を達成する。
論文 参考訳(メタデータ) (2020-04-30T17:58:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。