論文の概要: ReChisel: Effective Automatic Chisel Code Generation by LLM with Reflection
- arxiv url: http://arxiv.org/abs/2505.19734v1
- Date: Mon, 26 May 2025 09:20:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.317088
- Title: ReChisel: Effective Automatic Chisel Code Generation by LLM with Reflection
- Title(参考訳): ReChisel: 反射を用いたLLMによる効率的な自動チップコード生成
- Authors: Juxin Niu, Xiangfeng Liu, Dan Niu, Xi Wang, Zhe Jiang, Nan Guan,
- Abstract要約: ReChiselは、Chiselコード生成の有効性を高めるために設計されたエージェントシステムである。
実験により、ReChiselはChiselコード生成の成功率を大幅に改善することが示された。
- 参考スコア(独自算出の注目度): 10.897328608123772
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Coding with hardware description languages (HDLs) such as Verilog is a time-intensive and laborious task. With the rapid advancement of large language models (LLMs), there is increasing interest in applying LLMs to assist with HDL coding. Recent efforts have demonstrated the potential of LLMs in translating natural language to traditional HDL Verilog. Chisel, a next-generation HDL based on Scala, introduces higher-level abstractions, facilitating more concise, maintainable, and scalable hardware designs. However, the potential of using LLMs for Chisel code generation remains largely unexplored. This work proposes ReChisel, an LLM-based agentic system designed to enhance the effectiveness of Chisel code generation. ReChisel incorporates a reflection mechanism to iteratively refine the quality of generated code using feedback from compilation and simulation processes, and introduces an escape mechanism to break free from non-progress loops. Experiments demonstrate that ReChisel significantly improves the success rate of Chisel code generation, achieving performance comparable to state-of-the-art LLM-based agentic systems for Verilog code generation.
- Abstract(参考訳): Verilogのようなハードウェア記述言語(HDL)とのコーディングは、時間と労力のかかる作業である。
大規模言語モデル(LLM)の急速な進歩に伴い,HDL符号化支援にLLMを適用することへの関心が高まっている。
近年の取り組みは、自然言語を従来のHDL Verilogに翻訳する際のLLMの可能性を示している。
Scalaをベースとした次世代HDLであるChiselは、より簡潔で、保守性があり、スケーラブルなハードウェア設計を容易にする、高レベルの抽象化を導入している。
しかし、Chisel コード生成に LLM を使用する可能性については、まだ明らかになっていない。
本研究では,LLMに基づくエージェントシステムであるReChiselを提案する。
ReChiselは、コンパイルとシミュレーションプロセスからのフィードバックを使って、生成されたコードの品質を反復的に改善するリフレクションメカニズムを導入し、非プログレスループから解放されるエスケープメカニズムを導入した。
実験により、ReChiselはCiselコード生成の成功率を大幅に改善し、最先端のLLMベースのVerilogコード生成エージェントシステムに匹敵する性能を実現している。
関連論文リスト
- HDLCoRe: A Training-Free Framework for Mitigating Hallucinations in LLM-Generated HDL [8.078194378107936]
HDLCoReは、大規模言語モデルのHDL生成能力を向上する、トレーニング不要のフレームワークである。
本フレームワークはRTLLM2.0ベンチマークにおいて優れた性能を発揮する。
論文 参考訳(メタデータ) (2025-03-18T07:09:39Z) - Exploring Code Language Models for Automated HLS-based Hardware Generation: Benchmark, Infrastructure and Analysis [14.458529723566379]
LLM(Large Language Model)は、PythonやC++などのプログラミング言語に使用される。
本稿では,LLMを利用してHLS(High-Level Synthesis)ベースのハードウェア設計を行う。
論文 参考訳(メタデータ) (2025-02-19T17:53:59Z) - HiVeGen -- Hierarchical LLM-based Verilog Generation for Scalable Chip Design [55.54477725000291]
HiVeGenは階層的なVerilog生成フレームワークで、生成タスクを階層的なサブモジュールに分解する。
自動設計空間探索(DSE)を階層対応のプロンプト生成に変換し、コードの再利用を強化するために重みに基づく検索を導入する。
エラー補正コストを低減し、生成した設計の質を大幅に向上させる。
論文 参考訳(メタデータ) (2024-12-06T19:37:53Z) - CodeV: Empowering LLMs with HDL Generation through Multi-Level Summarization [32.462699328256384]
ハードウェア設計に大規模な言語モデルを適用する従来の方法は、合成HDLデータセットに依存している。
本稿では,多レベル要約データ合成プロセスとChat-FIM-Tag教師付き微調整手法を統合したHDL生成のための効率的なLCM微調整パイプラインを提案する。
論文 参考訳(メタデータ) (2024-07-15T03:57:20Z) - Classification-Based Automatic HDL Code Generation Using LLMs [9.630310313347657]
大規模言語モデル(LLM)は、デジタル回路用のハードウェア記述言語(HDL)コードを生成する能力を実証している。
LLMは幻覚の問題に悩まされ、誤ったHDLコードの生成や仕様の誤解につながる。
我々は,LLMの幻覚を緩和し,HDLコード生成の性能を向上させるために,人間の専門性に着想を得た手法を提案する。
論文 参考訳(メタデータ) (2024-07-04T09:00:13Z) - StepCoder: Improve Code Generation with Reinforcement Learning from
Compiler Feedback [58.20547418182074]
2つの主要コンポーネントからなるコード生成の新しいフレームワークであるStepCoderを紹介します。
CCCSは、長いシーケンスのコード生成タスクをCurriculum of Code Completion Subtaskに分割することで、探索課題に対処する。
FGOは、未実行のコードセグメントをマスクすることでのみモデルを最適化し、Fine-Grained Optimizationを提供する。
提案手法は,出力空間を探索し,対応するベンチマークにおいて最先端の手法より優れた性能を発揮する。
論文 参考訳(メタデータ) (2024-02-02T13:14:31Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。