論文の概要: Aligning Netlist to Source Code using SynAlign
- arxiv url: http://arxiv.org/abs/2501.00921v1
- Date: Wed, 01 Jan 2025 18:40:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-05 17:13:13.053792
- Title: Aligning Netlist to Source Code using SynAlign
- Title(参考訳): SynAlignを使ってNetlistをソースコードにアライメントする
- Authors: Sakshi Garg, Jose Renau,
- Abstract要約: SynAlignは、コンパイラや合成プロセスを変更することなく、最適化後のネットリストと元のソースコードを自動的に調整する。
この一貫性により、エンジニアは、修正された設計と、さまざまなツールにわたるオリジナルのソースコードとの相関を維持することができる。
注目すべきは、SynAlignはアライメント精度に影響を与えることなく、最大61%のデザイン変更を許容できることだ。
- 参考スコア(独自算出の注目度): 0.27624021966289597
- License:
- Abstract: In current chip design processes, using multiple tools to obtain a gate-level netlist often results in the loss of source code correlation. SynAlign addresses this challenge by automating the alignment process, simplifying iterative design, reducing overhead, and maintaining correlation across various tools. This enhances the efficiency and effectiveness of chip design workflows. Improving characteristics such as frequency through iterative design is essential for enhancing accelerators and chip designs. While synthesis tools produce netlists with critical path information, designers often lack the tools to trace these netlist cells back to their original source code. Mapping netlist components to source code provides early feedback on timing and power for frontend designers. SynAlign automatically aligns post-optimized netlists with the original source code without altering compilers or synthesis processes. Its alignment strategy relies on the consistent design structure throughout the chip design cycle, even with changes in compiler flow. This consistency allows engineers to maintain a correlation between modified designs and the original source code across various tools. Remarkably, SynAlign can tolerate up to 61\% design net changes without impacting alignment accuracy.
- Abstract(参考訳): 現在のチップ設計プロセスでは、ゲートレベルのネットリストを得るために複数のツールを使用すると、しばしばソースコードの相関が失われる。
SynAlignはこの課題に対処するため、アライメントプロセスの自動化、反復設計の簡略化、オーバーヘッドの削減、さまざまなツール間の相関を維持する。
これにより、チップ設計ワークフローの効率性と効率性が向上する。
繰り返し設計による周波数特性の向上は、加速器やチップ設計の強化に不可欠である。
合成ツールは重要な経路情報を持つネットリストを生成するが、設計者はこれらのネットリストセルを元のソースコードに遡るツールを欠いていることが多い。
ソースコードへのネットリストコンポーネントのマッピングは、フロントエンドデザイナのタイミングとパワーに関する早期フィードバックを提供する。
SynAlignは、コンパイラや合成プロセスを変更することなく、最適化後のネットリストと元のソースコードを自動的に調整する。
そのアライメント戦略は、コンパイラフローが変化しても、チップ設計サイクルを通して一貫した設計構造に依存している。
この一貫性により、エンジニアは、修正された設計と、さまざまなツールにわたるオリジナルのソースコードとの相関を維持することができる。
注目すべきは、SynAlignはアライメント精度に影響を与えることなく、最大61%のデザイン変更を許容できることだ。
関連論文リスト
- COOL: Efficient and Reliable Chain-Oriented Objective Logic with Neural Networks Feedback Control for Program Synthesis [0.0]
Logicのチェーン(CoL)は、合成プロセスをアクティビティフローに編成し、プロセスを導くための制御を提供する。
我々のアプローチは、合成をモジュール化し、ニューラルネットワークの誤予測の影響を軽減します。
リレーショナルおよびシンボリック合成タスクの実験は、CoLがDSLプログラム合成の効率と信頼性を著しく向上させることを示している。
論文 参考訳(メタデータ) (2024-10-02T13:02:17Z) - RTLRewriter: Methodologies for Large Models aided RTL Code Optimization [21.61206887869307]
本稿では,RTLコードの最適化に大規模なモデルを活用する革新的なフレームワークであるRTLRewriterを紹介する。
回路分割パイプラインを高速な合成と効率的な書き換えに利用する。
特別な検索エンジンは、有用な最適化ガイド、アルゴリズム、コードスニペットを特定するように設計されている。
論文 参考訳(メタデータ) (2024-09-04T09:59:37Z) - Torch2Chip: An End-to-end Customizable Deep Neural Network Compression and Deployment Toolkit for Prototype Hardware Accelerator Design [7.412488459502081]
設計とデプロイ"ワークフローは、現在のハードウェア・アルゴリズムの共同設計コミュニティにおいて、未解決の課題に直面しています。
我々は,ユーザ設計圧縮をサポートするオープンソースで,完全にカスタマイズ可能な,高性能なツールキットであるTorch2Chipを提案する。
Torch2Chipには階層型設計ワークフローが組み込まれており、ユーザカスタマイズ圧縮アルゴリズムは、プロトタイプチップ検証のためにデプロイ可能なフォーマットに直接詰め込まれている。
論文 参考訳(メタデータ) (2024-05-02T23:21:52Z) - Retrieval-Guided Reinforcement Learning for Boolean Circuit Minimization [23.075466444266528]
本研究は論理合成のための学習と探索技術について徹底的に検討する。
ABC-RLは、検索プロセス中に事前学習したエージェントからのレコメンデーションを順応的に調整する、巧妙に調整された$alpha$パラメータである。
その結果, 合成回路のQoR(Quality-of-result)は, 最先端技術と比較して最大24.8%向上した。
論文 参考訳(メタデータ) (2024-01-22T18:46:30Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - INVICTUS: Optimizing Boolean Logic Circuit Synthesis via Synergistic
Learning and Search [18.558280701880136]
最先端論理合成アルゴリズムは、多数の論理最小化を持つ。
INVICTUSは、以前に見られた設計のトレーニングデータセットに基づいて、論理最小化のシーケンスを生成する。
論文 参考訳(メタデータ) (2023-05-22T15:50:42Z) - Performance Embeddings: A Similarity-based Approach to Automatic
Performance Optimization [71.69092462147292]
パフォーマンス埋め込みは、アプリケーション間でパフォーマンスチューニングの知識伝達を可能にする。
本研究では, 深層ニューラルネットワーク, 密度およびスパース線形代数合成, および数値風速予測ステンシルのケーススタディにおいて, この伝達チューニング手法を実証する。
論文 参考訳(メタデータ) (2023-03-14T15:51:35Z) - The Basis of Design Tools for Quantum Computing: Arrays, Decision
Diagrams, Tensor Networks, and ZX-Calculus [55.58528469973086]
量子コンピュータは、古典的コンピュータが決して起こらない重要な問題を効率的に解決することを約束する。
完全に自動化された量子ソフトウェアスタックを開発する必要がある。
この研究は、今日のツールの"内部"の外観を提供し、量子回路のシミュレーション、コンパイル、検証などにおいてこれらの手段がどのように利用されるかを示す。
論文 参考訳(メタデータ) (2023-01-10T19:00:00Z) - Towards Optimal VPU Compiler Cost Modeling by using Neural Networks to
Infer Hardware Performances [58.720142291102135]
VPUNN"は低レベルのタスクプロファイリングに基づいてトレーニングされたニューラルネットワークベースのコストモデルである。
これは、IntelのVPUプロセッサのラインにおける最先端のコストモデリングよりも一貫して優れている。
論文 参考訳(メタデータ) (2022-05-09T22:48:39Z) - Joint inference and input optimization in equilibrium networks [68.63726855991052]
ディープ均衡モデル(Deep equilibrium model)は、従来のネットワークの深さを予測し、代わりに単一の非線形層の固定点を見つけることによってネットワークの出力を計算するモデルのクラスである。
この2つの設定の間には自然なシナジーがあることが示されています。
この戦略は、生成モデルのトレーニングや、潜時符号の最適化、デノベートやインペインティングといった逆問題に対するトレーニングモデル、対逆トレーニング、勾配に基づくメタラーニングなど、様々なタスクにおいて実証される。
論文 参考訳(メタデータ) (2021-11-25T19:59:33Z) - Synthetic Datasets for Neural Program Synthesis [66.20924952964117]
本稿では,プログラムと仕様の両方で合成データ分布のバイアスを制御し,評価するための新しい手法を提案する。
そこで我々は,Karel DSLと小さなCalculator DSLを用いて,これらの分布上でのディープネットワークのトレーニングにより,分散一般化性能が向上することが実証された。
論文 参考訳(メタデータ) (2019-12-27T21:28:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。