論文の概要: INVICTUS: Optimizing Boolean Logic Circuit Synthesis via Synergistic
Learning and Search
- arxiv url: http://arxiv.org/abs/2305.13164v3
- Date: Mon, 5 Jun 2023 05:00:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 00:59:04.056858
- Title: INVICTUS: Optimizing Boolean Logic Circuit Synthesis via Synergistic
Learning and Search
- Title(参考訳): INVICTUS: 相乗学習と探索によるブール論理回路合成の最適化
- Authors: Animesh Basak Chowdhury, Marco Romanelli, Benjamin Tan, Ramesh Karri,
Siddharth Garg
- Abstract要約: 最先端論理合成アルゴリズムは、多数の論理最小化を持つ。
INVICTUSは、以前に見られた設計のトレーニングデータセットに基づいて、論理最小化のシーケンスを生成する。
- 参考スコア(独自算出の注目度): 18.558280701880136
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Logic synthesis is the first and most vital step in chip design. This steps
converts a chip specification written in a hardware description language (such
as Verilog) into an optimized implementation using Boolean logic gates.
State-of-the-art logic synthesis algorithms have a large number of logic
minimization heuristics, typically applied sequentially based on human
experience and intuition. The choice of the order greatly impacts the quality
(e.g., area and delay) of the synthesized circuit. In this paper, we propose
INVICTUS, a model-based offline reinforcement learning (RL) solution that
automatically generates a sequence of logic minimization heuristics ("synthesis
recipe") based on a training dataset of previously seen designs. A key
challenge is that new designs can range from being very similar to past designs
(e.g., adders and multipliers) to being completely novel (e.g., new processor
instructions). %Compared to prior work, INVICTUS is the first solution that
uses a mix of RL and search methods joint with an online out-of-distribution
detector to generate synthesis recipes over a wide range of benchmarks. Our
results demonstrate significant improvement in area-delay product (ADP) of
synthesized circuits with up to 30\% improvement over state-of-the-art
techniques. Moreover, INVICTUS achieves up to $6.3\times$ runtime reduction
(iso-ADP) compared to the state-of-the-art.
- Abstract(参考訳): 論理合成はチップ設計における最初の、そして最も重要なステップである。
このステップは、ハードウェア記述言語(verilogなど)で記述されたチップ仕様をブール論理ゲートを使用して最適化された実装に変換する。
最先端論理合成アルゴリズムは多くの論理最小化ヒューリスティックを持ち、一般に人間の経験と直観に基づいて順次適用される。
順序の選択は、合成回路の品質(例えば、面積と遅延)に大きな影響を与える。
本稿では,以前に見られた設計のトレーニングデータセットに基づいて,論理最小化ヒューリスティックス(合成レシピ)のシーケンスを自動的に生成するモデルベースオフライン強化学習(RL)ソリューションであるINVICTUSを提案する。
鍵となる課題は、新しい設計が過去の設計(加算器や乗算器など)と非常によく似たものから、全く新しい(新しいプロセッサ命令など)ものまで様々である。
従来の研究と比較すると、invictusはrlと検索法を組み合わせてオンラインのアウトオブディストリビューション検出器と組み合わせて、幅広いベンチマークで合成レシピを生成する最初のソリューションである。
その結果, 合成回路の領域分解生成物(adp)は, 最先端技術よりも最大30%向上した。
さらに、INVICTUSは最先端と比較して最大6.3\times$ランタイム削減(so-ADP)を達成する。
関連論文リスト
- The Graph's Apprentice: Teaching an LLM Low Level Knowledge for Circuit Quality Estimation [34.37154877681809]
We introduced VeriDistill, the first end-to-end machine learning model that direct process raw Verilog code to predict circuit quality-of-result metrics。
本モデルでは,LLMに基づく低レベル回路インサイトを予測器に転送する,新しい知識蒸留法を採用している。
実験では、VeriDistillは大規模なVerilogデータセット上で最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2024-10-30T04:20:10Z) - Logic Synthesis Optimization with Predictive Self-Supervision via Causal Transformers [19.13500546022262]
LSOformerは、自動回帰トランスフォーマーモデルと予測SSLを利用して、結果の質の軌道(QoR)を予測する新しいアプローチである。
LSOformerは、クロスアテンションモジュールを統合して、回路グラフと最適化シーケンスからの洞察をマージし、QoRメトリクスの予測精度を向上させる。
論文 参考訳(メタデータ) (2024-09-16T18:45:07Z) - Benchmarking End-To-End Performance of AI-Based Chip Placement Algorithms [77.71341200638416]
ChiPBenchはAIベースのチップ配置アルゴリズムの有効性を評価するために設計されたベンチマークである。
評価のために、さまざまなドメイン(CPU、GPU、マイクロコントローラなど)から20の回路を集めました。
その結果, 単点アルゴリズムの中間距離が支配的であったとしても, 最終的なPPA結果は満足できないことがわかった。
論文 参考訳(メタデータ) (2024-07-03T03:29:23Z) - Retrieval-Guided Reinforcement Learning for Boolean Circuit Minimization [23.075466444266528]
本研究は論理合成のための学習と探索技術について徹底的に検討する。
ABC-RLは、検索プロセス中に事前学習したエージェントからのレコメンデーションを順応的に調整する、巧妙に調整された$alpha$パラメータである。
その結果, 合成回路のQoR(Quality-of-result)は, 最先端技術と比較して最大24.8%向上した。
論文 参考訳(メタデータ) (2024-01-22T18:46:30Z) - Uncovering mesa-optimization algorithms in Transformers [61.06055590704677]
いくつかの自己回帰モデルは、入力シーケンスが処理されたときに学習でき、パラメータの変更を受けずに、それを行うように明示的に訓練されていない。
我々は,新しい入力が明らかになったときにモデルを調整するための補助学習アルゴリズムが,標準の次トーケン予測誤差最小化によって生まれることを示す。
本研究は、自己回帰損失最小化の産物としてコンテキスト内学習を説明し、新しい最適化ベースのトランスフォーマー層の設計を通知する。
論文 参考訳(メタデータ) (2023-09-11T22:42:50Z) - A Circuit Domain Generalization Framework for Efficient Logic Synthesis
in Chip Design [92.63517027087933]
論理合成(LS)の重要な課題は、回路を等価な機能を持つ単純化回路に変換することである。
この課題に対処するため、多くのLS演算子は、入力DAG上の各ノードに根付いたサブグラフに逐次変換を適用する。
本稿では,データ駆動型LS演算子のパラダイムであるPruneXを提案する。
論文 参考訳(メタデータ) (2023-08-22T16:18:48Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - AISYN: AI-driven Reinforcement Learning-Based Logic Synthesis Framework [0.8356765961526955]
我々は人工知能(AI)と強化学習(RL)アルゴリズムがこの問題の解決に役立つと考えている。
オープンソースのベンチマーク回路と産業用ベンチマーク回路を併用した実験により,論理合成最適化関数をAI駆動にすることで,面積,遅延,電力といった重要な指標を大幅に改善できることが判明した。
論文 参考訳(メタデータ) (2023-02-08T00:55:24Z) - CodeRL: Mastering Code Generation through Pretrained Models and Deep
Reinforcement Learning [92.36705236706678]
CodeRLは、事前訓練されたLMと深層強化学習によるプログラム合成タスクのための新しいフレームワークである。
推論中、我々は重要なサンプリング戦略を持つ新しい生成手順を導入する。
モデルバックボーンについては,CodeT5のエンコーダデコーダアーキテクチャを拡張し,学習目標を拡張した。
論文 参考訳(メタデータ) (2022-07-05T02:42:15Z) - Hybrid Graph Models for Logic Optimization via Spatio-Temporal
Information [15.850413267830522]
EDAにおけるプロダクション対応MLアプリケーションを妨げるおもな懸念点は、正確性要件と一般化能力である。
本稿では,高精度なQoR推定に対するハイブリッドグラフニューラルネットワーク(GNN)に基づくアプローチを提案する。
3.3百万のデータポイントの評価によると、トレーニング中に見つからないデザインの絶対パーセンテージエラー(MAPE)は1.2%と3.1%に満たない。
論文 参考訳(メタデータ) (2022-01-20T21:12:22Z) - Transformer-based Machine Learning for Fast SAT Solvers and Logic
Synthesis [63.53283025435107]
CNFベースのSATとMaxSATは論理合成と検証システムの中心である。
そこで本研究では,Transformerアーキテクチャから派生したワンショットモデルを用いて,MaxSAT問題の解法を提案する。
論文 参考訳(メタデータ) (2021-07-15T04:47:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。