論文の概要: LAUDE: LLM-Assisted Unit Test Generation and Debugging of Hardware DEsigns
- arxiv url: http://arxiv.org/abs/2601.08856v1
- Date: Tue, 06 Jan 2026 04:00:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.087972
- Title: LAUDE: LLM-Assisted Unit Test Generation and Debugging of Hardware DEsigns
- Title(参考訳): LAUDE:LLMによるハードウェア設計のユニットテスト生成とデバッグ
- Authors: Deeksha Nandal, Riccardo Revalor, Soham Dan, Debjit Pal,
- Abstract要約: 単体テストは、コンポーネント設計モジュールが機能的に正しく、システムレベルで統合される前に仕様に準拠していることを保証するため、ハードウェア設計ライフサイクルにおいて重要である。
ハードウェア設計のための統一された単体テスト生成およびデバッグフレームワークであるLAUDEを導入し、設計ソースコードのセマンティック理解を基礎的大言語モデル(LLM)のChain-of-Thought(CoT)推論能力と相互補完する。
We apply LAUDE with closed- and open-source LLMs to a large corpus of buggy hardware design codes from the VerilogEval dataset, where generated unit tests detect bugs。
- 参考スコア(独自算出の注目度): 9.542805275381566
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Unit tests are critical in the hardware design lifecycle to ensure that component design modules are functionally correct and conform to the specification before they are integrated at the system level. Thus developing unit tests targeting various design features requires deep understanding of the design functionality and creativity. When one or more unit tests expose a design failure, the debugging engineer needs to diagnose, localize, and debug the failure to ensure design correctness, which is often a painstaking and intense process. In this work, we introduce LAUDE, a unified unit-test generation and debugging framework for hardware designs that cross-pollinates the semantic understanding of the design source code with the Chain-of-Thought (CoT) reasoning capabilities of foundational Large-Language Models (LLMs). LAUDE integrates prompt engineering and design execution information to enhance its unit test generation accuracy and code debuggability. We apply LAUDE with closed- and open-source LLMs to a large corpus of buggy hardware design codes derived from the VerilogEval dataset, where generated unit tests detected bugs in up to 100% and 93% of combinational and sequential designs and debugged up to 93% and 84% of combinational and sequential designs, respectively.
- Abstract(参考訳): 単体テストは、コンポーネント設計モジュールが機能的に正しく、システムレベルで統合される前に仕様に準拠していることを保証するため、ハードウェア設計ライフサイクルにおいて重要である。
したがって、様々な設計機能をターゲットにした単体テストを開発するには、設計機能と創造性を深く理解する必要がある。
1つ以上のユニットテストが設計上の障害を露呈する場合、デバッギングエンジニアは、設計の正確性を保証するために障害を診断、ローカライズ、デバッグする必要があります。
本研究では,ハードウェア設計のための統一型単体テスト生成デバッギングフレームワークであるLAUDEを紹介し,設計ソースコードのセマンティック理解を,基礎的大規模言語モデル(LLM)のChain-of-Thought(CoT)推論能力と相互補完する。
LAUDEは、プロンプトエンジニアリングと設計実行情報を統合して、ユニットテスト生成精度とコードのデバッグ性を高める。
We apply LAUDE with closed- and open-source LLMs to a large corpus of buggy hardware design codes from the VerilogEval dataset, generated unit test detected bugs in up 100% and 93% of combinational and sequence design, respectively to up 93% and 84% of combinational and sequence design。
関連論文リスト
- DUET: Agentic Design Understanding via Experimentation and Testing [6.787641711048685]
DUETは、実験とテストによる設計理解を開発するための一般的な方法論である。
仮説を反復的に生成し、EDAツールでテストし、結果を統合して、設計のボトムアップ理解を構築する。
DUETは,実験なしでのベースラインフローと比較して,形式的検証においてAIエージェントの性能を向上させることを示す。
論文 参考訳(メタデータ) (2025-12-06T02:16:28Z) - LOCOFY Large Design Models -- Design to code conversion solution [0.0]
本稿では,デザインからコードへのシームレスな変換を実現するために,デザインとWebページに特化して訓練された大規模デザインモデルを紹介した。
データエンジニアリングと適切なモデルアーキテクチャの修正を取り入れたトレーニングと推論パイプラインを開発した。
提案モデルでは, 新規なプレビューマッチスコア測定値を用いて, エンド・ツー・エンドの設計・コード変換精度を実証した。
論文 参考訳(メタデータ) (2025-07-22T03:54:57Z) - Training Language Models to Generate Quality Code with Program Analysis Feedback [66.0854002147103]
大規模言語モデル(LLM)によるコード生成は、ますます本番環境で採用されているが、コード品質の保証には失敗している。
実運用品質のコードを生成するためにLLMにインセンティブを与える強化学習フレームワークであるREALを提案する。
論文 参考訳(メタデータ) (2025-05-28T17:57:47Z) - Specifications: The missing link to making the development of LLM systems an engineering discipline [65.10077876035417]
我々は、構造化出力、プロセスの監督、テストタイム計算など、これまでの分野の進歩について論じる。
モジュール型かつ信頼性の高いLCMシステムの開発に向けた研究の今後の方向性について概説する。
論文 参考訳(メタデータ) (2024-11-25T07:48:31Z) - VerilogReader: LLM-Aided Hardware Test Generation [5.012023213660125]
高度な理解と推論機能を備えた大規模言語モデル(LLM)は、新しいアプローチを導入している。
本研究では,LCMをCDG(Coverage Directed Test Generation)プロセスに統合する方法について検討する。
私たちは、自設計のVerilogベンチマークスイートを使用して、ランダムなテストとフレームワークを比較します。
論文 参考訳(メタデータ) (2024-06-03T07:20:51Z) - Evaluating LLMs for Hardware Design and Test [25.412044293834715]
大規模言語モデル(LLM)は、ハードウェア記述言語(HDL)でコードを生成する能力を実証した。
機能的および検証目的でVerilogを生成する際に,最先端の会話型LLMの機能と限界について検討する。
論文 参考訳(メタデータ) (2024-04-23T18:55:49Z) - Prompting Large Language Models to Tackle the Full Software Development Lifecycle: A Case Study [72.24266814625685]
DevEvalでソフトウェア開発ライフサイクル全体にわたって、大きな言語モデル(LLM)のパフォーマンスを調査します。
DevEvalは4つのプログラミング言語、複数のドメイン、高品質なデータ収集、各タスクに対して慎重に設計および検証されたメトリクスを備えている。
GPT-4を含む現在のLLMは、DevEvalで提示される課題を解決できないことが実証研究によって示されている。
論文 参考訳(メタデータ) (2024-03-13T15:13:44Z) - StepCoder: Improve Code Generation with Reinforcement Learning from
Compiler Feedback [58.20547418182074]
2つの主要コンポーネントからなるコード生成の新しいフレームワークであるStepCoderを紹介します。
CCCSは、長いシーケンスのコード生成タスクをCurriculum of Code Completion Subtaskに分割することで、探索課題に対処する。
FGOは、未実行のコードセグメントをマスクすることでのみモデルを最適化し、Fine-Grained Optimizationを提供する。
提案手法は,出力空間を探索し,対応するベンチマークにおいて最先端の手法より優れた性能を発揮する。
論文 参考訳(メタデータ) (2024-02-02T13:14:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。