論文の概要: Wrong Code, Right Structure: Learning Netlist Representations from Imperfect LLM-Generated RTL
- arxiv url: http://arxiv.org/abs/2603.09161v1
- Date: Tue, 10 Mar 2026 03:52:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:24.015024
- Title: Wrong Code, Right Structure: Learning Netlist Representations from Imperfect LLM-Generated RTL
- Title(参考訳): 誤りコード, 右構造:不完全LLM生成RTLからのネットリスト表現の学習
- Authors: Siyang Cai, Cangyuan Li, Yinhe Han, Ying Wang,
- Abstract要約: 大規模言語モデル(LLM)は大規模にレジスタ・トランスファー・レベル(RTL)を生成することができるが、その機能的誤りにより回路解析における使用が妨げられている。
ネットリスト表現学習のためのトレーニングデータとして不完全なRTLを利用する費用対効果のあるデータ拡張とトレーニングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 4.827201131867214
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning effective netlist representations is fundamentally constrained by the scarcity of labeled datasets, as real designs are protected by Intellectual Property (IP) and costly to annotate. Existing work therefore focuses on small-scale circuits with clean labels, limiting scalability to realistic designs. Meanwhile, Large Language Models (LLMs) can generate Register-Transfer-Level (RTL) at scale, but their functional incorrectness has hindered their use in circuit analysis. In this work, we make a key observation: even when LLM-Generated RTL is functionally imperfect, the synthesized netlists still preserve structural patterns that are strongly indicative of the intended functionality. Building on this insight, we propose a cost-effective data augmentation and training framework that systematically exploits imperfect LLM-Generated RTL as training data for netlist representation learning, forming an end-to-end pipeline from automated code generation to downstream tasks. We conduct evaluations on circuit functional understanding tasks, including sub-circuit boundary identification and component classification, across benchmarks of increasing scales, extending the task scope from operator-level to IP-level. The evaluations demonstrate that models trained on our noisy synthetic corpus generalize well to real-world netlists, matching or even surpassing methods trained on scarce high-quality data and effectively breaking the data bottleneck in circuit representation learning.
- Abstract(参考訳): 効果的なネットリスト表現の学習は、実際の設計は知的財産権(IP)によって保護され、注釈をつけるのにコストがかかるため、ラベル付きデータセットの不足によって、基本的に制限されている。
したがって、既存の作業はクリーンなラベルを持つ小さな回路に焦点を合わせ、スケーラビリティを現実的な設計に制限する。
一方、LLM(Large Language Models)は大規模にレジスタ・トランスファー・レベル(RTL)を生成することができるが、その機能的誤りにより回路解析における使用が妨げられている。
本研究では, LLM 生成 RTL が機能的に不完全である場合でも, 合成ネットリストは意図した機能を強く表す構造パターンを保っている。
この知見に基づいて,ネットリスト表現学習のためのトレーニングデータとして,不完全なLLM生成RTLを体系的に活用し,自動コード生成から下流タスクへのエンドツーエンドパイプラインを形成する,費用対効果の高いデータ拡張とトレーニングフレームワークを提案する。
サブ回路境界同定やコンポーネント分類を含む回路機能理解タスクの評価を行い,作業範囲を演算子レベルからIPレベルまで拡張する。
評価の結果、ノイズの多い合成コーパスでトレーニングされたモデルは、実世界のネットリストによく一般化し、高品質なデータでトレーニングされた手法をマッチングまたは超越し、回路表現学習におけるデータボトルネックを効果的に破壊することを示した。
関連論文リスト
- Curate-Train-Refine: A Closed-Loop Agentic Framework for Zero Shot Classification [2.1937565888932653]
大規模言語モデル(LLM)と高容量エンコーダは、ゼロと少数ショットの分類が進んでいるが、その推論コストと遅延は実際のデプロイを制限している。
LLMから動的に生成した教師による軽量テキスト分類器の訓練を提案する。
提案手法は, LLMがトレーニングデータをキュレートし, モデルの成功と失敗を分析し, 対象とするサンプルを合成し, 観測誤差に対処する反復的エージェントループを用いる。
論文 参考訳(メタデータ) (2026-01-23T08:04:09Z) - Zero-Shot Instruction Following in RL via Structured LTL Representations [54.08661695738909]
リニア時間論理(LTL)は、強化学習(RL)エージェントのための複雑で構造化されたタスクを特定するための魅力的なフレームワークである。
近年の研究では、命令を有限オートマトンとして解釈し、タスク進捗を監視する高レベルプログラムと見なすことができ、テスト時に任意の命令を実行することのできる1つのジェネラリストポリシーを学習できることが示されている。
本稿では,この欠点に対処する任意の命令に従うために,マルチタスクポリシーを学習するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2025-12-02T10:44:51Z) - EARL: Entropy-Aware RL Alignment of LLMs for Reliable RTL Code Generation [7.512194032034432]
Reinforcement Learning with Verifiable Rewards (RLVR)は、モデル能力と実世界のRTL設計のギャップを埋める、有望なアプローチを提供する。
We present EARL, a Entropy-Aware Reinforcement Learning framework for Verilog generation。
論文 参考訳(メタデータ) (2025-11-15T05:00:07Z) - Learning Task Representations from In-Context Learning [67.66042137487287]
大規模言語モデル(LLM)は、文脈内学習(ICL)において顕著な習熟性を示した。
ICLプロンプトにおけるタスク情報をアテンションヘッドの関数として符号化するための自動定式化を導入する。
提案手法は,テキスト中の実演からタスク固有の情報を抽出し,テキストと回帰タスクの両方で優れる。
論文 参考訳(メタデータ) (2025-02-08T00:16:44Z) - TL-Training: A Task-Feature-Based Framework for Training Large Language Models in Tool Use [72.32614703504122]
大規模言語モデル(LLM)は、環境と対話するツールを活用することで、目覚ましい進歩を遂げる。
大規模なデータセットに依存する標準教師付き微調整アプローチでは、ツール使用時のタスク固有の特性を見落としていることが多い。
本稿では,最適下トレーニングデータの効果を緩和するタスク機能ベースのフレームワークであるTL-Trainingを提案する。
論文 参考訳(メタデータ) (2024-12-20T02:21:36Z) - Large Language Models as Realistic Microservice Trace Generators [48.730974361862366]
本稿では,大規模言語モデル (LLM) を用いて, 合成作業負荷トレースを生成する手法を提案する。
我々はTraceLLMが様々な条件下で多様なリアルなトレースを生成し、精度と妥当性の両方において既存のアプローチよりも優れていることを示す。
TraceLLMは、キートレース機能を予測したり、欠落したデータを埋め込むといった、下流のトレース関連タスクに適応する。
論文 参考訳(メタデータ) (2024-12-16T12:48:04Z) - Web-Scale Visual Entity Recognition: An LLM-Driven Data Approach [56.55633052479446]
Webスケールのビジュアルエンティティ認識は、クリーンで大規模なトレーニングデータがないため、重大な課題を呈している。
本稿では,ラベル検証,メタデータ生成,合理性説明に多モーダル大言語モデル(LLM)を活用することによって,そのようなデータセットをキュレートする新しい手法を提案する。
実験により、この自動キュレートされたデータに基づいてトレーニングされたモデルは、Webスケールの視覚的エンティティ認識タスクで最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2024-10-31T06:55:24Z) - AIvril: AI-Driven RTL Generation With Verification In-The-Loop [0.7831852829409273]
LLM(Large Language Models)は、複雑な自然言語処理タスクを実行できる計算モデルである。
本稿では,RTL対応LLMの精度と信頼性を高めるためのフレームワークであるAIvrilを紹介する。
論文 参考訳(メタデータ) (2024-09-03T15:07:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。