論文の概要: Automating Code Generation for Semiconductor Equipment Control from Developer Utterances with LLMs
- arxiv url: http://arxiv.org/abs/2509.13055v1
- Date: Tue, 16 Sep 2025 13:12:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:53.101302
- Title: Automating Code Generation for Semiconductor Equipment Control from Developer Utterances with LLMs
- Title(参考訳): LLMによる半導体機器制御用コード生成の自動化
- Authors: Youngkyoung Kim, Sanghyeok Park, Misoo Kim, Gangho Yoon, Eunseok Lee, Simon S. Woo,
- Abstract要約: アルゴリズムパターン生成器(ALPG)のような機器言語は、ハードウェアの正確な制御には不可欠である。
本稿では,新しい多段階プロンプトフレームワークであるプログレッシブ・ナレッジ・エンハンスメント(PKE)を提案する。
産業用ALPGデータセットの実証評価は、PKEが標準的プロンプトを著しく上回っていることを示している。
- 参考スコア(独自算出の注目度): 22.922338629324244
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Semiconductors form the backbone of modern electronics, with their manufacturing and testing relying on highly specialized equipment and domain-specific programming languages. Equipment languages such as the Algorithmic Pattern Generator (ALPG) are critical for precise hardware control but are challenging to program due to their low-level syntax and steep learning curve. While large language models (LLMs) have shown promise in generating high-level code from natural language, their effectiveness on low-level equipment languages remains limited. To address this, we propose Progressive Knowledge Enhancement (PKE), a novel multi-stage prompting framework that progressively extracts and activates the latent knowledge within LLMs, guiding them from simple to complex examples without extensive fine-tuning. Empirical evaluation on an industrial ALPG dataset shows that PKE significantly outperforms standard prompting and surpasses state-of-the-art methods in generating correct ALPG code, achieving 11.1\% and 15.2\% higher exact match scores compared to the second-best technique. Further analysis of individual components confirms that progressive knowledge extraction based on difficulty enhances accuracy. Our study offer a practical approach to boosting LLM capabilities for specialized low-level programming, supporting greater productivity in semiconductor software development.
- Abstract(参考訳): 半導体は現代のエレクトロニクスのバックボーンを形成し、その製造と試験は高度に専門化された機器とドメイン固有のプログラミング言語に依存している。
アルゴリズムパターン生成器(ALPG)のような機器言語は、ハードウェアの正確な制御には不可欠であるが、低レベルの構文と急勾配の学習曲線のためにプログラムを困難にしている。
大規模言語モデル(LLM)は、自然言語から高レベルコードを生成することを約束しているが、低レベル機器言語におけるそれらの有効性は依然として限られている。
そこで本研究では,LLM内の潜伏知識を段階的に抽出・活性化する多段階促進フレームワークであるProgressive Knowledge Enhancement (PKE)を提案する。
産業用ALPGデータセットの実証評価によると、PKEは正しいALPGコードを生成する際に、標準のプロンプトを著しく上回り、最先端の手法を上回り、1.1\%と15.2\%の正確なマッチスコアを達成した。
個別成分のさらなる分析により、難易度に基づく進歩的知識抽出が精度を高めることが確認される。
本研究は,低レベルプログラミングのためのLLM機能向上のための実践的アプローチを提供し,半導体ソフトウェア開発における生産性向上を支援する。
関連論文リスト
- Training Language Models to Generate Quality Code with Program Analysis Feedback [66.0854002147103]
大規模言語モデル(LLM)によるコード生成は、ますます本番環境で採用されているが、コード品質の保証には失敗している。
実運用品質のコードを生成するためにLLMにインセンティブを与える強化学習フレームワークであるREALを提案する。
論文 参考訳(メタデータ) (2025-05-28T17:57:47Z) - CodeIF: Benchmarking the Instruction-Following Capabilities of Large Language Models for Code Generation [20.013757490442064]
タスク指向の命令に準拠する大規模言語モデル(LLM)の能力を評価するために設計された最初のベンチマークであるCodeIFを紹介する。
CodeIFは関数合成、アルゴリズム命令、コード説明など幅広いタスクを含んでいる。
我々はLLMによる広範囲な実験を行い、これらの課題の要求を満たす上での強みと限界を分析した。
論文 参考訳(メタデータ) (2025-02-26T14:19:49Z) - Exploring Code Language Models for Automated HLS-based Hardware Generation: Benchmark, Infrastructure and Analysis [14.458529723566379]
LLM(Large Language Model)は、PythonやC++などのプログラミング言語に使用される。
本稿では,LLMを利用してHLS(High-Level Synthesis)ベースのハードウェア設計を行う。
論文 参考訳(メタデータ) (2025-02-19T17:53:59Z) - OpenCoder: The Open Cookbook for Top-Tier Code Large Language Models [76.59316249991657]
コードのための大規模言語モデル(LLM)は、コード生成、推論タスク、エージェントシステムなど、さまざまな領域で必須になっている。
オープンアクセスのコード LLM はプロプライエタリなモデルの性能レベルに近づきつつあるが、高品質なコード LLM は依然として限られている。
トップクラスのコードLLMであるOpenCoderは、主要なモデルに匹敵するパフォーマンスを達成するだけでなく、研究コミュニティの"オープンクックブック"としても機能します。
論文 参考訳(メタデータ) (2024-11-07T17:47:25Z) - DIALIGHT: Lightweight Multilingual Development and Evaluation of
Task-Oriented Dialogue Systems with Large Language Models [76.79929883963275]
DIALIGHTは多言語タスク指向対話(ToD)システムの開発と評価のためのツールキットである。
ローカル発話レベルとグローバル対話レベルの両方において、人間のきめ細かい評価のためのセキュアでユーザフレンドリーなWebインターフェースを備えている。
評価の結果, PLMの微調整により精度とコヒーレンスが向上する一方, LLMベースのシステムは多様で類似した応答を生成するのに優れていた。
論文 参考訳(メタデータ) (2024-01-04T11:27:48Z) - CodeRL: Mastering Code Generation through Pretrained Models and Deep
Reinforcement Learning [92.36705236706678]
CodeRLは、事前訓練されたLMと深層強化学習によるプログラム合成タスクのための新しいフレームワークである。
推論中、我々は重要なサンプリング戦略を持つ新しい生成手順を導入する。
モデルバックボーンについては,CodeT5のエンコーダデコーダアーキテクチャを拡張し,学習目標を拡張した。
論文 参考訳(メタデータ) (2022-07-05T02:42:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。