論文の概要: Retrieval-Guided Reinforcement Learning for Boolean Circuit Minimization
- arxiv url: http://arxiv.org/abs/2401.12205v1
- Date: Mon, 22 Jan 2024 18:46:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 12:48:35.750015
- Title: Retrieval-Guided Reinforcement Learning for Boolean Circuit Minimization
- Title(参考訳): ブール回路最小化のための検索誘導強化学習
- Authors: Animesh Basak Chowdhury, Marco Romanelli, Benjamin Tan, Ramesh Karri,
Siddharth Garg
- Abstract要約: 本研究は論理合成のための学習と探索技術について徹底的に検討する。
ABC-RLは、検索プロセス中に事前学習したエージェントからのレコメンデーションを順応的に調整する、巧妙に調整された$alpha$パラメータである。
その結果, 合成回路のQoR(Quality-of-result)は, 最先端技術と比較して最大24.8%向上した。
- 参考スコア(独自算出の注目度): 23.075466444266528
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Logic synthesis, a pivotal stage in chip design, entails optimizing chip
specifications encoded in hardware description languages like Verilog into
highly efficient implementations using Boolean logic gates. The process
involves a sequential application of logic minimization heuristics (``synthesis
recipe"), with their arrangement significantly impacting crucial metrics such
as area and delay. Addressing the challenge posed by the broad spectrum of
design complexities - from variations of past designs (e.g., adders and
multipliers) to entirely novel configurations (e.g., innovative processor
instructions) - requires a nuanced `synthesis recipe` guided by human expertise
and intuition. This study conducts a thorough examination of learning and
search techniques for logic synthesis, unearthing a surprising revelation:
pre-trained agents, when confronted with entirely novel designs, may veer off
course, detrimentally affecting the search trajectory. We present ABC-RL, a
meticulously tuned $\alpha$ parameter that adeptly adjusts recommendations from
pre-trained agents during the search process. Computed based on similarity
scores through nearest neighbor retrieval from the training dataset, ABC-RL
yields superior synthesis recipes tailored for a wide array of hardware
designs. Our findings showcase substantial enhancements in the
Quality-of-result (QoR) of synthesized circuits, boasting improvements of up to
24.8% compared to state-of-the-art techniques. Furthermore, ABC-RL achieves an
impressive up to 9x reduction in runtime (iso-QoR) when compared to current
state-of-the-art methodologies.
- Abstract(参考訳): チップ設計における重要な段階である論理合成は、verilogのようなハードウェア記述言語でエンコードされるチップ仕様をboolean logic gatesを使用して高度に効率的な実装に最適化する。
このプロセスには論理最小化ヒューリスティックス(`合成レシピ)のシーケンシャルな応用が含まれており、その配置は面積や遅延といった重要な指標に大きな影響を及ぼす。
過去の設計(例えば、加算器や乗算器)から全く新しい構成(例えば、革新的なプロセッサ命令)まで、幅広い設計複雑さによって引き起こされる課題に対処するには、人間の専門知識と直感によって導かれるニュアンスな「合成レシピ」が必要である。
本研究は,論理合成の学習と探索手法を徹底的に検討し,全く新しい設計に直面すると,探索軌道に有害な影響を及ぼす可能性のある事前学習エージェントを探索する。
ABC-RLは、検索プロセス中に事前学習したエージェントからのレコメンデーションを順応的に調整する$\alpha$パラメータである。
ABC-RLは、トレーニングデータセットから最も近い隣人検索を通じて類似度スコアに基づいて計算され、幅広いハードウェア設計に適した優れた合成レシピを提供する。
その結果, 合成回路のQoR(Quality-of-result)は, 最先端技術と比較して最大24.8%向上した。
さらにABC-RLは、現在の最先端手法と比較して9倍のランタイム(so-QoR)の削減を実現している。
関連論文リスト
- The Graph's Apprentice: Teaching an LLM Low Level Knowledge for Circuit Quality Estimation [34.37154877681809]
We introduced VeriDistill, the first end-to-end machine learning model that direct process raw Verilog code to predict circuit quality-of-result metrics。
本モデルでは,LLMに基づく低レベル回路インサイトを予測器に転送する,新しい知識蒸留法を採用している。
実験では、VeriDistillは大規模なVerilogデータセット上で最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2024-10-30T04:20:10Z) - Logic Synthesis Optimization with Predictive Self-Supervision via Causal Transformers [19.13500546022262]
LSOformerは、自動回帰トランスフォーマーモデルと予測SSLを利用して、結果の質の軌道(QoR)を予測する新しいアプローチである。
LSOformerは、クロスアテンションモジュールを統合して、回路グラフと最適化シーケンスからの洞察をマージし、QoRメトリクスの予測精度を向上させる。
論文 参考訳(メタデータ) (2024-09-16T18:45:07Z) - Uncovering mesa-optimization algorithms in Transformers [61.06055590704677]
いくつかの自己回帰モデルは、入力シーケンスが処理されたときに学習でき、パラメータの変更を受けずに、それを行うように明示的に訓練されていない。
我々は,新しい入力が明らかになったときにモデルを調整するための補助学習アルゴリズムが,標準の次トーケン予測誤差最小化によって生まれることを示す。
本研究は、自己回帰損失最小化の産物としてコンテキスト内学習を説明し、新しい最適化ベースのトランスフォーマー層の設計を通知する。
論文 参考訳(メタデータ) (2023-09-11T22:42:50Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - INVICTUS: Optimizing Boolean Logic Circuit Synthesis via Synergistic
Learning and Search [18.558280701880136]
最先端論理合成アルゴリズムは、多数の論理最小化を持つ。
INVICTUSは、以前に見られた設計のトレーニングデータセットに基づいて、論理最小化のシーケンスを生成する。
論文 参考訳(メタデータ) (2023-05-22T15:50:42Z) - AISYN: AI-driven Reinforcement Learning-Based Logic Synthesis Framework [0.8356765961526955]
我々は人工知能(AI)と強化学習(RL)アルゴリズムがこの問題の解決に役立つと考えている。
オープンソースのベンチマーク回路と産業用ベンチマーク回路を併用した実験により,論理合成最適化関数をAI駆動にすることで,面積,遅延,電力といった重要な指標を大幅に改善できることが判明した。
論文 参考訳(メタデータ) (2023-02-08T00:55:24Z) - CorpusBrain: Pre-train a Generative Retrieval Model for
Knowledge-Intensive Language Tasks [62.22920673080208]
単一ステップ生成モデルは、検索プロセスを劇的に単純化し、エンドツーエンドで最適化することができる。
我々は、事前学習された生成検索モデルをCorpsBrainと名付け、コーパスに関する全ての情報が、追加のインデックスを構築することなく、そのパラメータにエンコードされる。
論文 参考訳(メタデータ) (2022-08-16T10:22:49Z) - CodeRL: Mastering Code Generation through Pretrained Models and Deep
Reinforcement Learning [92.36705236706678]
CodeRLは、事前訓練されたLMと深層強化学習によるプログラム合成タスクのための新しいフレームワークである。
推論中、我々は重要なサンプリング戦略を持つ新しい生成手順を導入する。
モデルバックボーンについては,CodeT5のエンコーダデコーダアーキテクチャを拡張し,学習目標を拡張した。
論文 参考訳(メタデータ) (2022-07-05T02:42:15Z) - BOiLS: Bayesian Optimisation for Logic Synthesis [10.981155046738126]
本稿では,現代ベイズ最適化を適用した最初のアルゴリズムBOiLSを提案する。
サンプル効率とQoR値の両方の観点から,BOiLSの最先端性能を最先端技術と比較した。
論文 参考訳(メタデータ) (2021-11-11T12:44:38Z) - An AI-Assisted Design Method for Topology Optimization Without
Pre-Optimized Training Data [68.8204255655161]
トポロジ最適化に基づくAI支援設計手法を提示し、最適化された設計を直接的に得ることができる。
設計は、境界条件と入力データとしての充填度に基づいて、人工ニューラルネットワーク、予測器によって提供される。
論文 参考訳(メタデータ) (2020-12-11T14:33:27Z) - Retro*: Learning Retrosynthetic Planning with Neural Guided A* Search [83.22850633478302]
反合成計画(retrosynthetic planning)は、ターゲット生成物の合成に繋がる一連の反応を特定する。
既存の手法では、高いばらつきを持つロールアウトによる高価なリターン推定が必要か、品質よりも探索速度を最適化する必要がある。
本稿では,高品質な合成経路を効率よく見つけるニューラルネットワークA*ライクなアルゴリズムRetro*を提案する。
論文 参考訳(メタデータ) (2020-06-29T05:53:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。