論文の概要: LLM4EDA: Emerging Progress in Large Language Models for Electronic
Design Automation
- arxiv url: http://arxiv.org/abs/2401.12224v1
- Date: Thu, 28 Dec 2023 15:09:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-28 15:41:15.593513
- Title: LLM4EDA: Emerging Progress in Large Language Models for Electronic
Design Automation
- Title(参考訳): LLM4EDA:電子設計自動化のための大規模言語モデルの進化
- Authors: Ruizhe Zhong, Xingbo Du, Shixiong Kai, Zhentao Tang, Siyuan Xu,
Hui-Ling Zhen, Jianye Hao, Qiang Xu, Mingxuan Yuan, Junchi Yan
- Abstract要約: 大規模言語モデル(LLM)は、文脈理解、論理推論、回答生成においてその能力を実証している。
本稿では,EDA分野におけるLLMの応用に関する系統的研究を行う。
論理合成,物理設計,マルチモーダル特徴抽出,回路のアライメントにLLMを適用することに焦点を当て,今後の研究の方向性を強調した。
- 参考スコア(独自算出の注目度): 74.7163199054881
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Driven by Moore's Law, the complexity and scale of modern chip design are
increasing rapidly. Electronic Design Automation (EDA) has been widely applied
to address the challenges encountered in the full chip design process. However,
the evolution of very large-scale integrated circuits has made chip design
time-consuming and resource-intensive, requiring substantial prior expert
knowledge. Additionally, intermediate human control activities are crucial for
seeking optimal solutions. In system design stage, circuits are usually
represented with Hardware Description Language (HDL) as a textual format.
Recently, Large Language Models (LLMs) have demonstrated their capability in
context understanding, logic reasoning and answer generation. Since circuit can
be represented with HDL in a textual format, it is reasonable to question
whether LLMs can be leveraged in the EDA field to achieve fully automated chip
design and generate circuits with improved power, performance, and area (PPA).
In this paper, we present a systematic study on the application of LLMs in the
EDA field, categorizing it into the following cases: 1) assistant chatbot, 2)
HDL and script generation, and 3) HDL verification and analysis. Additionally,
we highlight the future research direction, focusing on applying LLMs in logic
synthesis, physical design, multi-modal feature extraction and alignment of
circuits. We collect relevant papers up-to-date in this field via the following
link: https://github.com/Thinklab-SJTU/Awesome-LLM4EDA.
- Abstract(参考訳): ムーアの法則により、現代のチップ設計の複雑さと規模は急速に増大している。
電子設計自動化(EDA)は、完全なチップ設計プロセスで直面する課題に広く適用されている。
しかし、非常に大規模な集積回路の進化により、チップの設計に要する時間と資源が集中し、事前の知識が必要となった。
加えて、中間的な人間の制御活動は最適な解を求めるために重要である。
システム設計段階では、回路は通常、テキスト形式としてハードウェア記述言語(HDL)で表現される。
近年,Large Language Models (LLMs) は,文脈理解や論理推論,回答生成においてその能力を実証している。
回路はテキスト形式でHDLで表現できるので、EDAフィールドでLLMを活用でき、完全な自動チップ設計を実現し、電力、性能、面積(PPA)を改善した回路を生成することができるかどうかを疑うのは妥当である。
本稿では,EDA分野におけるLLMの適用に関する系統的研究を行い,以下の事例に分類する。
1)アシスタントチャットボット。
2)HDLとスクリプト生成
3)HDLの検証と分析。
さらに,論理合成,物理設計,マルチモーダル特徴抽出,回路アライメントにおけるllmの適用に着目し,今後の研究方向を強調する。
この分野での関連論文は、https://github.com/Thinklab-SJTU/Awesome-LLM4EDAというリンクで収集します。
関連論文リスト
- Are LLMs Any Good for High-Level Synthesis? [1.3927943269211591]
大規模言語モデル(LLM)は、高レベル合成(HLS)プロセスの合理化や置き換えが可能である。
LLMは自然言語の仕様を理解し、Cコードや自然言語の仕様を翻訳することができる。
本研究の目的は、AIアクセラレーション、組み込みシステム、高性能コンピューティングなどのアプリケーションにおいて、最適化されたハードウェア設計のための将来的な方向性を特定することである。
論文 参考訳(メタデータ) (2024-08-19T21:40:28Z) - Case2Code: Learning Inductive Reasoning with Synthetic Data [105.89741089673575]
プログラムの表現性と正確性を利用したtextbfCase2Code タスクを提案する。
まず、合成したCase2Codeタスクにおける代表LLMを評価し、LLMにおいてケース・ツー・コード誘導が困難であることを実証する。
実験結果から,このような帰納的学習は,Case2Codeの性能だけでなく,学習用LLMの各種符号化能力の向上にも寄与することがわかった。
論文 参考訳(メタデータ) (2024-07-17T11:35:00Z) - APEER: Automatic Prompt Engineering Enhances Large Language Model Reranking [39.649879274238856]
APEERという新しい自動プロンプトエンジニアリングアルゴリズムを導入する。
APEERはフィードバックと好みの最適化を通じて改良されたプロンプトを反復的に生成する。
実験では、既存の最先端(SoTA)マニュアルプロンプトよりもAPEERの性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2024-06-20T16:11:45Z) - Digital ASIC Design with Ongoing LLMs: Strategies and Prospects [0.0]
大きな言語モデル(LLM)は、ハードウェア記述言語(HDL)コードの自動生成の可能性を秘め、将来性のある開発と見なされている。
本稿では,LLMをデジタルASIC設計に活用するためのターゲット戦略を提案する。
論文 参考訳(メタデータ) (2024-04-25T05:16:57Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - Federated Fine-Tuning of LLMs on the Very Edge: The Good, the Bad, the Ugly [62.473245910234304]
本稿では,最新のエッジコンピューティングシステムにおいて,Large Language Modelsをどのように導入できるかを,ハードウェア中心のアプローチで検討する。
マイクロレベルのハードウェアベンチマークを行い、FLOPモデルと最先端のデータセンターGPUを比較し、現実的な条件下でのネットワーク利用について検討する。
論文 参考訳(メタデータ) (2023-10-04T20:27:20Z) - Revisiting Prompt Engineering via Declarative Crowdsourcing [16.624577543520093]
大規模言語モデル(LLM)は、テキスト形式でデータを解釈し、生成するのに驚くほど強力ですが、脆弱でエラーを起こします。
私たちは宣言的な急進的なエンジニアリングのビジョンを打ち出した。
ソート、実体分解、計算に関する予備的ケーススタディは、我々のアプローチの可能性を実証している。
論文 参考訳(メタデータ) (2023-08-07T18:04:12Z) - Large Language Models as General Pattern Machines [64.75501424160748]
我々は,事前訓練された大規模言語モデル (LLM) が,複雑なトークンシーケンスを自動回帰的に完了することを示す。
驚いたことに、語彙からランダムにサンプリングされたトークンを用いてシーケンスが表現された場合でも、パターン完了の習熟度を部分的に保持することができる。
本研究では,ロボット工学における問題に対して,これらのゼロショット機能がどのように適用されるかを検討する。
論文 参考訳(メタデータ) (2023-07-10T17:32:13Z) - A Survey on Multimodal Large Language Models [71.63375558033364]
GPT-4Vで表されるマルチモーダル大言語モデル(MLLM)は、新たな研究ホットスポットとなっている。
本稿では,MLLMの最近の進歩を追跡・要約することを目的とする。
論文 参考訳(メタデータ) (2023-06-23T15:21:52Z) - Intelligent Circuit Design and Implementation with Machine Learning [0.0]
幅広いチップ設計段階をカバーする複数の高速かつ正確な機械学習モデルを提示します。
完全に自動化されたパワーモデリングフレームワークであるAPOLLOを紹介します。
私はまた、早期のroutability予測のためにRouteNetを提示します。
論文 参考訳(メタデータ) (2022-06-07T06:17:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。