論文の概要: AutoFSM: A Multi-agent Framework for FSM Code Generation with IR and SystemC-Based Testing
- arxiv url: http://arxiv.org/abs/2512.11398v1
- Date: Fri, 12 Dec 2025 09:15:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 15:48:11.712131
- Title: AutoFSM: A Multi-agent Framework for FSM Code Generation with IR and SystemC-Based Testing
- Title(参考訳): AutoFSM:IRとSystemCベースのテストを備えたFSMコード生成のためのマルチエージェントフレームワーク
- Authors: Qiuming Luo, Yanming Lei, Kunzhong Wu, Yixuan Cao, Chengjian Liu,
- Abstract要約: 本稿では,有限状態機械(FSM)コード生成タスクのための協調的フレームワークであるAutoFSMを提案する。
AutoFSMは、コード生成時の構文エラー率を低減するために、構造的に明確な中間表現(IR)を導入している。
SystemCベースのモデリングと自動テストベンチ生成を統合するのはこれが初めてである。
- 参考スコア(独自算出の注目度): 2.5793366206387827
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid advancement of large language models (LLMs) in code generation, their applications in hardware design are receiving growing attention. However, existing LLMs face several challenges when generating Verilog code for finite state machine (FSM) control logic, including frequent syntax errors, low debugging efficiency, and heavy reliance on test benchmarks. To address these challenges, this paper proposes AutoFSM, a multi-agent collaborative framework designed for FSM code generation tasks. AutoFSM introduces a structurally clear intermediate representation (IR) to reduce syntax error rate during code generation and provides a supporting toolchain to enable automatic translation from IR to Verilog. Furthermore, AutoFSM is the first to integrate SystemC-based modeling with automatic testbench generation, thereby improving debugging efficiency and feedback quality. To systematically evaluate the framework's performance, we construct SKT-FSM, the first hierarchical FSM benchmark in the field, comprising 67 FSM samples across different complexity levels. Experimental results show that, under the same base LLM, AutoFSM consistently outperforms the open-source framework MAGE on the SKT-FSM benchmark, achieving up to an 11.94% improvement in pass rate and up to a 17.62% reduction in syntax error rate. These results demonstrate the potential of combining LLMs with structured IR and automated testing to improve the reliability and scalability of register-transfer level (RTL) code generation.
- Abstract(参考訳): コード生成における大規模言語モデル(LLM)の急速な進歩により、ハードウェア設計における彼らの応用は注目されている。
しかし、既存のLLMは、頻繁に構文エラー、デバッグ効率の低下、テストベンチマークへの依存など、有限状態マシン(FSM)制御ロジック用のVerilogコードを生成する際に、いくつかの課題に直面している。
これらの課題に対処するために,FSMコード生成タスク用に設計されたマルチエージェント協調フレームワークであるAutoFSMを提案する。
AutoFSMはコード生成時の構文エラー率を低減するために構造的に明確な中間表現(IR)を導入し、IRからVerilogへの自動翻訳を可能にするサポートツールチェーンを提供する。
さらに、AutoFSMはSystemCベースのモデリングを自動テストベンチ生成に統合し、デバッグ効率とフィードバック品質を向上させる。
フレームワークの性能を体系的に評価するために,SKT-FSMというフィールドの最初の階層型FSMベンチマークを構築した。
実験の結果、同じLLMの下でAutoFSMはオープンソースフレームワークMAGEをSKT-FSMベンチマークで一貫して上回り、パスレートが11.94%向上し、構文エラー率が17.62%低下した。
これらの結果から,LLMと構造化IRと自動テストを組み合わせることで,レジスタ・トランスファーレベル(RTL)コード生成の信頼性とスケーラビリティを向上させる可能性が示された。
関連論文リスト
- Autonomous Control Leveraging LLMs: An Agentic Framework for Next-Generation Industrial Automation [0.0]
本稿では,大規模言語モデル(LLM)を個別のフォールトリカバリ計画と継続的プロセス制御の両方に活用する統合エージェントフレームワークを提案する。
その結果、構造化されたフィードバックとモジュラーエージェントにより、LLMは高レベルな記号計画と低レベルな連続制御を統一できることを示した。
論文 参考訳(メタデータ) (2025-07-03T11:20:22Z) - Training Language Models to Generate Quality Code with Program Analysis Feedback [66.0854002147103]
大規模言語モデル(LLM)によるコード生成は、ますます本番環境で採用されているが、コード品質の保証には失敗している。
実運用品質のコードを生成するためにLLMにインセンティブを与える強化学習フレームワークであるREALを提案する。
論文 参考訳(メタデータ) (2025-05-28T17:57:47Z) - Pangu Embedded: An Efficient Dual-system LLM Reasoner with Metacognition [95.54406667705999]
Pangu Embeddedは、Ascend Neural Processing Units (NPU) 上で開発された効率的なLarge Language Model (LLM) 推論器である。
既存の推論最適化 LLM でよく見られる計算コストと推論遅延の問題に対処する。
単一の統一モデルアーキテクチャ内で、迅速な応答と最先端の推論品質を提供する。
論文 参考訳(メタデータ) (2025-05-28T14:03:02Z) - SymRTLO: Enhancing RTL Code Optimization with LLMs and Neuron-Inspired Symbolic Reasoning [30.938876549335067]
本稿では,新しいニューロン-シンボリックRTL最適化フレームワークであるSymRTLOを提案する。
有限状態機械(FSM)論理の解析と最適化のための記号モジュールを提案する。
Synopsys Design Compiler と Yosys による RTL-Rewriter ベンチマークの実験では、SymRTLO は 43.9% と 62.5% と 51.1% に向上している。
論文 参考訳(メタデータ) (2025-04-14T16:15:55Z) - TuRTLe: A Unified Evaluation of LLMs for RTL Generation [0.6010802600885173]
本研究では,主要なRTL生成タスク間でLLMを評価するための統合評価フレームワークTuRTLeを提案する。
オープンLLMの多様なセットをベンチマークし、EDA固有のタスクの長所と短所を分析します。
以上の結果から,DeepSeek R1のような推論モデルの方が,複数の評価基準で常に優れていたことが示唆された。
論文 参考訳(メタデータ) (2025-03-31T07:43:12Z) - LLM-AutoDiff: Auto-Differentiate Any LLM Workflow [58.56731133392544]
自動プロンプト工学(APE)のための新しいフレームワーク LLM-AutoDiff について紹介する。
LLMs-AutoDiffは、各テキスト入力をトレーニング可能なパラメータとして扱い、フリーズした後方エンジンを使用して、テキスト勾配に対するフィードバック・アキンを生成する。
精度とトレーニングコストの両方において、既存のテキスト勾配ベースラインを一貫して上回ります。
論文 参考訳(メタデータ) (2025-01-28T03:18:48Z) - FederatedScope-LLM: A Comprehensive Package for Fine-tuning Large
Language Models in Federated Learning [70.38817963253034]
本稿では, ファインチューニング LLM のこれらの課題について論じ, 本パッケージ FS-LLM を主な貢献として紹介する。
我々は、FLシナリオにおける将来の拡張のために、包括的フェデレーションパラメータ効率の良い微調整アルゴリズムの実装と汎用プログラミングインタフェースを提供する。
本研究では, FS-LLM の有効性を検証し, FL 設定におけるパラメータ効率の高いパラメータ調整アルゴリズムを用いて, 高度な LLM のベンチマークを行う。
論文 参考訳(メタデータ) (2023-09-01T09:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。