論文の概要: PrefixRL: Optimization of Parallel Prefix Circuits using Deep
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2205.07000v1
- Date: Sat, 14 May 2022 08:06:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-17 15:06:55.043473
- Title: PrefixRL: Optimization of Parallel Prefix Circuits using Deep
Reinforcement Learning
- Title(参考訳): PrefixRL:Deep Reinforcement Learningを用いた並列プリフィックス回路の最適化
- Authors: Rajarshi Roy, Jonathan Raiman, Neel Kant, Ilyas Elkin, Robert Kirby,
Michael Siu, Stuart Oberman, Saad Godil, Bryan Catanzaro
- Abstract要約: 本稿では、並列プレフィックス回路の設計における強化学習(RL)に基づくアプローチを提案する。
従来の方法とは異なり,本手法はループ内の合成を学習することで,タブララザを純粋に解決する。
オープンソースの合成ツールとセルライブラリで訓練されたエージェントは、商用ツールの添加器よりも低い面積と遅延を達成できる加算器回路を設計できる。
- 参考スコア(独自算出の注目度): 17.113901439543284
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we present a reinforcement learning (RL) based approach to
designing parallel prefix circuits such as adders or priority encoders that are
fundamental to high-performance digital design. Unlike prior methods, our
approach designs solutions tabula rasa purely through learning with synthesis
in the loop. We design a grid-based state-action representation and an RL
environment for constructing legal prefix circuits. Deep Convolutional RL
agents trained on this environment produce prefix adder circuits that
Pareto-dominate existing baselines with up to 16.0% and 30.2% lower area for
the same delay in the 32b and 64b settings respectively. We observe that agents
trained with open-source synthesis tools and cell library can design adder
circuits that achieve lower area and delay than commercial tool adders in an
industrial cell library.
- Abstract(参考訳): 本研究では,高パフォーマンスディジタル設計の基本となる加算器や優先エンコーダなどの並列プレフィックス回路を設計するための強化学習(RL)に基づくアプローチを提案する。
先行手法とは異なり,提案手法はループ内の合成による学習を通じて,純粋にタブララサを設計できる。
我々は,グリッドベースの状態行動表現と法定プレフィックス回路を構築するためのRL環境を設計する。
この環境下で訓練された深層畳み込み型RLエージェントはプレフィックス加算回路を生成し、パレートが既存のベースラインを最大16.0%、30.2%以下で支配し、それぞれ32bと64bの設定に同じ遅延を与える。
オープンソースの合成ツールとセルライブラリで訓練されたエージェントは、産業用セルライブラリの商用ツール加算器よりも低い面積と遅延を達成する加算回路を設計することができる。
関連論文リスト
- SimBa: Simplicity Bias for Scaling Up Parameters in Deep Reinforcement Learning [49.83621156017321]
SimBaは、単純さのバイアスを注入することによって、深いRLでパラメータをスケールアップするように設計されたアーキテクチャである。
SimBaでパラメータをスケールアップすることで、オフポリシー、オンポリシー、アン教師なしメソッドを含む様々なディープRLアルゴリズムのサンプル効率が一貫して改善される。
論文 参考訳(メタデータ) (2024-10-13T07:20:53Z) - ShortCircuit: AlphaZero-Driven Circuit Design [12.3162550019215]
チップ設計は、真理表のような関数記述からAND-Inverter Graphs(AIG)のような回路を生成することに大きく依存している。
近年のディープラーニングの進歩は回路設計を加速することを目的としているが、これらの取り組みは主に合成以外のタスクに焦点を当てている。
本稿では,AIGの構造特性を活用し,効率的な宇宙探査を行う新しいトランスフォーマーアーキテクチャであるShortCircuitを紹介する。
論文 参考訳(メタデータ) (2024-08-19T10:03:14Z) - AnalogCoder: Analog Circuit Design via Training-Free Code Generation [28.379045024642668]
本稿では,アナログ回路を設計するための訓練不要なLarge Language ModelsエージェントであるAnalogCoderを紹介する。
フィードバック強化フローとドメイン固有のプロンプトが組み込まれており、アナログ回路の自動化および自己修正設計を可能にする。
20個の回路を設計し、標準のGPT-4oより5個多く設計した。
論文 参考訳(メタデータ) (2024-05-23T17:13:52Z) - Machine Learning Driven Global Optimisation Framework for Analog Circuit Design [0.0]
アナログ回路設計のための機械学習駆動最適化フレームワークを提案する。
最適化アルゴリズムを指向するために,機械学習モデルとスパイスシミュレーションを用いる。
論文 参考訳(メタデータ) (2024-02-27T03:51:00Z) - Retrieval-Guided Reinforcement Learning for Boolean Circuit Minimization [23.075466444266528]
本研究は論理合成のための学習と探索技術について徹底的に検討する。
ABC-RLは、検索プロセス中に事前学習したエージェントからのレコメンデーションを順応的に調整する、巧妙に調整された$alpha$パラメータである。
その結果, 合成回路のQoR(Quality-of-result)は, 最先端技術と比較して最大24.8%向上した。
論文 参考訳(メタデータ) (2024-01-22T18:46:30Z) - CktGNN: Circuit Graph Neural Network for Electronic Design Automation [67.29634073660239]
本稿では,回路トポロジ生成とデバイスサイズを同時に行う回路グラフニューラルネットワーク(CktGNN)を提案する。
オープンサーキットベンチマーク(OCB: Open Circuit Benchmark)は、オープンソースのデータセットで、10ドル(約10万円)の異なるオペレーショナルアンプを含む。
我々の研究は、アナログ回路のための学習ベースのオープンソース設計自動化への道を開いた。
論文 参考訳(メタデータ) (2023-08-31T02:20:25Z) - Katakomba: Tools and Benchmarks for Data-Driven NetHack [52.0035089982277]
NetHackは強化学習研究のフロンティアとして知られている。
採用には、リソースワイド、実装ワイド、ベンチマークワイドの3つの大きな障害がある、と私たちは主張しています。
オフラインの強化学習コミュニティに慣れ親しんだワークフローの基礎を提供するオープンソースライブラリを開発した。
論文 参考訳(メタデータ) (2023-06-14T22:50:25Z) - INVICTUS: Optimizing Boolean Logic Circuit Synthesis via Synergistic
Learning and Search [18.558280701880136]
最先端論理合成アルゴリズムは、多数の論理最小化を持つ。
INVICTUSは、以前に見られた設計のトレーニングデータセットに基づいて、論理最小化のシーケンスを生成する。
論文 参考訳(メタデータ) (2023-05-22T15:50:42Z) - Graph Neural Network Autoencoders for Efficient Quantum Circuit
Optimisation [69.43216268165402]
我々は、量子回路の最適化にグラフニューラルネットワーク(GNN)オートエンコーダの使い方を初めて提示する。
我々は、量子回路から有向非巡回グラフを構築し、そのグラフを符号化し、その符号化を用いてRL状態を表現する。
我々の手法は、非常に大規模なRL量子回路最適化に向けた最初の現実的な第一歩である。
論文 参考訳(メタデータ) (2023-03-06T16:51:30Z) - RL-DARTS: Differentiable Architecture Search for Reinforcement Learning [62.95469460505922]
我々は、強化学習(RL)における微分可能なアーキテクチャ探索(DARTS)の最初の応用の1つであるRL-DARTSを紹介する。
画像エンコーダをDARTSスーパーネットに置き換えることにより、検索方法はサンプリング効率が高く、余分な計算資源が最小限必要であり、また、既存のコードに小さな変更を加える必要がなく、オフ・ポリティクスとオン・ポリティクスのRLアルゴリズムとも互換性がある。
スーパーネットはより優れたセルを徐々に学習し、手作業で設計したポリシーに対して高い競争力を持つ代替アーキテクチャへとつながり、RLポリシーの以前の設計選択も検証できることを示す。
論文 参考訳(メタデータ) (2021-06-04T03:08:43Z) - Learning to Prune Deep Neural Networks via Reinforcement Learning [64.85939668308966]
PuRLは、ニューラルネットワークのプルーニングのためのディープ強化学習ベースのアルゴリズムである。
現在の最先端の手法に匹敵する幅と精度を実現している。
論文 参考訳(メタデータ) (2020-07-09T13:06:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。