論文の概要: ARSP: Automated Repair of Verilog Designs via Semantic Partitioning
- arxiv url: http://arxiv.org/abs/2508.16517v1
- Date: Fri, 22 Aug 2025 16:40:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-25 16:42:36.458635
- Title: ARSP: Automated Repair of Verilog Designs via Semantic Partitioning
- Title(参考訳): ARSP: セマンティックパーティショニングによるVerilogデザインの自動修復
- Authors: Bingkun Yao, Ning Wang, Xiangfeng Liu, Yuxin Du, Yuchen Hu, Hong Gao, Zhe Jiang, Nan Guan,
- Abstract要約: ARSPはセマンティックス誘導の断片化によって希釈を緩和する2段階のシステムである。
合成データフレームワークは、両方のモデルを監督するために、バグタイプ、デザインスタイル、スケールにまたがるフラグメントレベルのトレーニングペアを生成する。
ARSP 77.92%が Pass@1 と 83.88% pass@5 を達成し、主要な商用 LLM を上回っている。
- 参考スコア(独自算出の注目度): 34.51043089413753
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Debugging functional Verilog bugs consumes a significant portion of front-end design time. While Large Language Models (LLMs) have demonstrated great potential in mitigating this effort, existing LLM-based automated debugging methods underperform on industrial-scale modules. A major reason for this is bug signal dilution in long contexts, where a few bug-relevant tokens are overwhelmed by hundreds of unrelated lines, diffusing the model's attention. To address this issue, we introduce ARSP, a two-stage system that mitigates dilution via semantics-guided fragmentation. A Partition LLM splits a module into semantically tight fragments; a Repair LLM patches each fragment; edits are merged without altering unrelated logic. A synthetic data framework generates fragment-level training pairs spanning bug types, design styles, and scales to supervise both models. Experiments show that ARSP achieves 77.92% pass@1 and 83.88% pass@5, outperforming mainstream commercial LLMs including Claude-3.7 and SOTA automated Verilog debugging tools Strider and MEIC. Also, semantic partitioning improves pass@1 by 11.6% and pass@5 by 10.2% over whole-module debugging, validating the effectiveness of fragment-level scope reduction in LLM-based Verilog debugging.
- Abstract(参考訳): 機能的なVerilogバグのデバッグは、フロントエンドの設計時間の大部分を消費する。
大規模言語モデル(LLM)は、この取り組みを緩和する大きな可能性を示しているが、既存のLLMベースの自動デバッギング手法は、産業規模のモジュールでは性能が低い。
この主な理由は、長いコンテキストにおけるバグ信号の希釈であり、いくつかのバグ関連トークンが数百の無関係な行に圧倒され、モデルの注意を分散させる。
この問題に対処するために、意味論的誘導断片化による希釈を緩和する2段階のシステムであるARSPを導入する。
分割 LLM はモジュールを意味的にきつく断片に分割し、修復 LLM は各フラグメントをパッチし、編集は無関係なロジックを変更することなくマージされる。
合成データフレームワークは、両方のモデルを監督するために、バグタイプ、デザインスタイル、スケールにまたがるフラグメントレベルのトレーニングペアを生成する。
実験の結果、ARSPは77.92%のpass@1と83.88%のpass@5を達成した。
また、セマンティックパーティショニングによりpass@1が11.6%、pass@5が10.2%改善され、LCMベースのVerilogデバッグにおけるフラグメントレベルのスコープ削減の有効性が検証された。
関連論文リスト
- DiffuCoder: Understanding and Improving Masked Diffusion Models for Code Generation [68.19756761027351]
拡散大言語モデル(dLLM)は自己回帰(AR)モデルの魅力的な代替品である。
本研究は,それらの認知過程と強化学習手法について考察する。
我々の研究は、dLLM生成のメカニズムについて深い洞察を与え、効果的な拡散ネイティブなRLトレーニングフレームワークを提供します。
論文 参考訳(メタデータ) (2025-06-25T17:35:47Z) - LLM-Based Detection of Tangled Code Changes for Higher-Quality Method-Level Bug Datasets [5.191767648600372]
本稿では,コミットメッセージとメソッドレベルのコード差分の両方を活用することで,絡み合ったコード変化を検出するための大規模言語モデルの有用性について検討する。
その結果,コミットメッセージとコード差分を組み合わせることで,モデルの性能が著しく向上することがわかった。
49のオープンソースプロジェクトにアプローチを適用することで、バグギーと非バグギーメソッド間のコードのメトリクスの分散分離性が向上します。
論文 参考訳(メタデータ) (2025-05-13T06:26:13Z) - A Unified Debugging Approach via LLM-Based Multi-Agent Synergy [39.11825182386288]
FixAgentはマルチエージェントのシナジーによる統合デバッグのためのエンドツーエンドフレームワークである。
1.25$times$ 2.56$times$レポレベルのベンチマークであるDefects4Jのバグを修正した。
論文 参考訳(メタデータ) (2024-04-26T04:55:35Z) - Lemur: Log Parsing with Entropy Sampling and Chain-of-Thought Merging [18.823038918091207]
我々は、textbfEntropy サンプリングとチェーン・オブ・シンクトの textbfMerging (model) を用いた最先端の textbfLog 解析フレームワークを導入する。
退屈な手作業のルールを捨てるために,情報エントロピーにインスパイアされた新しいサンプリング手法を提案し,典型的なログを効率的にクラスタリングする。
大規模な公開データセットの実験を行った。
論文 参考訳(メタデータ) (2024-02-28T09:51:55Z) - BESA: Pruning Large Language Models with Blockwise Parameter-Efficient Sparsity Allocation [54.28841287750586]
大規模言語モデル(LLM)は、テキスト要約、テキスト質問応答など、様々なタスクにおいて優れたパフォーマンスを示してきた。
SparseGPTやWandaといった既存のソリューションは、重み付けによってこの問題を緩和しようと試みている。
本稿では,ブロックワイド再構成損失を適用して,ブロックワイドパラメータ効率の空間割当(BESA)と呼ばれる新しいLCMプルーニング手法を提案する。
論文 参考訳(メタデータ) (2024-02-18T12:44:15Z) - ReEval: Automatic Hallucination Evaluation for Retrieval-Augmented Large Language Models via Transferable Adversarial Attacks [91.55895047448249]
本稿では,LLMベースのフレームワークであるReEvalについて述べる。
本稿では、ChatGPTを用いてReEvalを実装し、2つの人気のあるオープンドメインQAデータセットのバリエーションを評価する。
我々の生成したデータは人間可読であり、大きな言語モデルで幻覚を引き起こすのに役立ちます。
論文 参考訳(メタデータ) (2023-10-19T06:37:32Z) - Self-Supervised Log Parsing [59.04636530383049]
大規模ソフトウェアシステムは、大量の半構造化ログレコードを生成する。
既存のアプローチは、ログ特化や手動ルール抽出に依存している。
本稿では,自己教師付き学習モデルを用いて解析タスクをマスク言語モデリングとして定式化するNuLogを提案する。
論文 参考訳(メタデータ) (2020-03-17T19:25:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。