論文の概要: ViTAD: Timing Violation-Aware Debugging of RTL Code using Large Language Models
- arxiv url: http://arxiv.org/abs/2508.13257v1
- Date: Mon, 18 Aug 2025 16:41:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.69226
- Title: ViTAD: Timing Violation-Aware Debugging of RTL Code using Large Language Models
- Title(参考訳): ViTAD: 大規模言語モデルを用いたRTLコードのタイミング違反対応デバッグ
- Authors: Wenhao Lv, Yingjie Xia, Xiyuan Chen, Li Kuang,
- Abstract要約: ViTADは、タイミング違反の根本原因を効率的に分析し、ターゲットとする修復戦略を動的に生成する手法である。
STDGに基づいて、違反経路解析を行い、大きな言語モデル(LLM)を用いて違反の根本原因を推測する。
LLMのみを用いたベースラインは54.38%であるのに対し,本手法はタイミング違反の修復において73.68%の成功率を達成した。
- 参考スコア(独自算出の注目度): 7.564898429501228
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In modern Very Large Scale Integrated (VLSI) circuit design flow, the Register-Transfer Level (RTL) stage presents a critical opportunity for timing optimization. Addressing timing violations at this early stage is essential, as modern systems demand higher speeds, where even minor timing violations can lead to functional failures or system crashes. However, traditional timing optimization heavily relies on manual expertise, requiring engineers to iteratively analyze timing reports and debug. To automate this process, this paper proposes ViTAD, a method that efficiently analyzes the root causes of timing violations and dynamically generates targeted repair strategies. Specifically, we first parse Verilog code and timing reports to construct a Signal Timing Dependency Graph (STDG). Based on the STDG, we perform violation path analysis and use large language models (LLMs) to infer the root causes of violations. Finally, by analyzing the causes of violations, we selectively retrieve relevant debugging knowledge from a domain-specific knowledge base to generate customized repair solutions. To evaluate the effectiveness of our method, we construct a timing violation dataset based on real-world open-source projects. This dataset contains 54 cases of violations. Experimental results show that our method achieves a 73.68% success rate in repairing timing violations, while the baseline using only LLM is 54.38%. Our method improves the success rate by 19.30%.
- Abstract(参考訳): 現代のVery Large Scale Integrated (VLSI) 回路設計フローでは、レジスタ-トランスファーレベル (RTL) ステージがタイミング最適化の重要な機会となる。
現代のシステムでは、小さなタイミング違反であっても機能障害やシステムクラッシュにつながるような、より高速な速度が要求されるため、この初期段階でのタイミング違反に対処することが不可欠である。
しかし、従来のタイミング最適化は手作業の専門知識に大きく依存しており、エンジニアはタイミングレポートとデバッグを反復的に分析する必要がある。
このプロセスを自動化するために, タイミング違反の根本原因を効率的に解析し, 対象とする修復戦略を動的に生成する手法であるViTADを提案する。
具体的には、まずVerilogコードとタイミングレポートを解析し、信号タイミング依存グラフ(STDG)を構築する。
STDGに基づいて、違反経路解析を行い、大きな言語モデル(LLM)を用いて違反の根本原因を推測する。
最後に,違反の原因を分析することにより,ドメイン固有の知識ベースから適切なデバッグ知識を選択的に検索し,カスタマイズされた修復ソリューションを生成する。
提案手法の有効性を評価するため,実世界のオープンソースプロジェクトに基づくタイミング違反データセットを構築した。
このデータセットには、54の違反事例が含まれている。
実験の結果,LSMのみを用いたベースラインは54.38%であり,タイミング違反の修復において73.68%の成功率を達成した。
我々の方法は成功率を19.30%向上させる。
関連論文リスト
- Specification-Guided Repair of Arithmetic Errors in Dafny Programs using LLMs [84.30534714651093]
本稿では,検証を意識したプログラミング言語であるDafnyに対して,革新的なAPRツールを提案する。
プログラム内の各ステートメントの状態を決定するために、Hoare Logicの使用を含む一連のステップを通じて、障害をローカライズします。
実世界のDafnyプログラムのベンチマークであるDafnyBenchを用いて,我々のアプローチを評価する。
論文 参考訳(メタデータ) (2025-07-04T15:36:12Z) - The Hitchhiker's Guide to Program Analysis, Part II: Deep Thoughts by LLMs [17.497629884237647]
BugLensは、バグ検出のための静的解析精度を大幅に向上させる、ポストリファインメントフレームワークである。
LLMは有望なコード理解能力を示すが、プログラム分析への直接の応用は信頼できない。
LLMは、セキュリティへの影響を評価し、ソースコードから制約を検証するため、構造化された推論ステップを通じてLLMをガイドする。
論文 参考訳(メタデータ) (2025-04-16T02:17:06Z) - Timing Analysis Agent: Autonomous Multi-Corner Multi-Mode (MCMM) Timing Debugging with Timing Debug Relation Graph [1.6392250108065922]
小さな金属ピッチとデバイス数の増加は、経験豊富な人間デザイナーがタイミング問題をデバッグするのに長いターンアラウンドタイムをもたらしている。
大きな言語モデル(LLM)は、言語理解と対話的な意思決定において、様々なタスクにおいて大きな可能性を示しています。
我々は、レポートと経験豊富なタイミングエンジニアのデバッグトレースの関係を結びつけるTDRG(Timing Relation Graph)を構築します。
論文 参考訳(メタデータ) (2025-04-15T04:14:36Z) - Computation Tree Logic Guided Program Repair [10.880298593486671]
本稿では,CTL特性によって誘導される無限状態プログラムの自動修復機構を提案する。
我々のフレームワークは,プログラムとCTLプロパティをDatalogのファクトとルールにエンコードし,解析ルールをパスするために事実を変更することで修復を行う。
提案手法は,小規模ベンチマークでは56.6%,実世界のベンチマークでは88.5%であり,ベースライン性能は27.7%,76.9%であった。
論文 参考訳(メタデータ) (2025-02-21T09:59:38Z) - Improving LLM Reasoning through Scaling Inference Computation with Collaborative Verification [52.095460362197336]
大規模言語モデル(LLM)は一貫性と正確な推論に苦しむ。
LLMは、主に正しいソリューションに基づいて訓練され、エラーを検出して学習する能力を減らす。
本稿では,CoT(Chain-of-Thought)とPoT(Program-of-Thought)を組み合わせた新しい協調手法を提案する。
論文 参考訳(メタデータ) (2024-10-05T05:21:48Z) - A Multi-Agent Approach to Fault Localization via Graph-Based Retrieval and Reflexion [8.22737389683156]
従来のフォールトローカライゼーション技術は、広範なトレーニングデータセットと高い計算資源を必要とする。
大規模言語モデル(LLM)の最近の進歩は、コード理解と推論を強化することで、新たな機会を提供する。
LLM4FLは3つの特殊なLLMエージェントを利用するマルチエージェントの故障局所化フレームワークである。
14のJavaプロジェクトから675の障害を含むDefects4Jベンチマークで評価され、LLM4FLはAutoFLよりも18.55%、SoapFLより4.82%、Top-1の精度が18.55%向上した。
論文 参考訳(メタデータ) (2024-09-20T16:47:34Z) - Characterization of Large Language Model Development in the Datacenter [55.9909258342639]
大きな言語モデル(LLM)は、いくつかの変換タスクにまたがって素晴らしいパフォーマンスを示している。
しかし,大規模クラスタ資源を効率よく利用してLCMを開発することは容易ではない。
我々は,GPUデータセンタAcmeから収集した6ヶ月のLDM開発ワークロードの詳細な評価を行った。
論文 参考訳(メタデータ) (2024-03-12T13:31:14Z) - Is Self-Repair a Silver Bullet for Code Generation? [68.02601393906083]
大規模な言語モデルは、コード生成において顕著な適性を示しているが、それでも複雑なタスクを実行するのに苦労している。
自己修復(Self-repair) — モデルが自身のコードをデバッグし、修復する — は、最近、パフォーマンスを向上する一般的な方法になっている。
我々は,Code Llama, GPT-3.5, GPT-4によるHumanEvalとAPPSの自己修復能力について分析した。
論文 参考訳(メタデータ) (2023-06-16T15:13:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。