論文の概要: ChiseLLM: Unleashing the Power of Reasoning LLMs for Chisel Agile Hardware Development
- arxiv url: http://arxiv.org/abs/2504.19144v1
- Date: Sun, 27 Apr 2025 07:56:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.150378
- Title: ChiseLLM: Unleashing the Power of Reasoning LLMs for Chisel Agile Hardware Development
- Title(参考訳): ChiseLLM: チゼル型アジャイルハードウェア開発のための推論 LLM のパワーを開放する
- Authors: Bowei Wang, Jiaran Gao, Yelai Feng, Renzhi Chen, Shanshan Li, Lei Wang,
- Abstract要約: 本稿では,データ処理と変換,プロンプト誘導推論トレース合成,ドメイン適応モデルトレーニングを含むソリューションであるChiseLLMを提案する。
実験の結果、我々のChiseLLM-7B と ChiseLLM-32B は、基本モデルよりも構文の正しさを 18.85% と 26.32% 改善した。
- 参考スコア(独自算出の注目度): 2.991306123894704
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The growing demand for Domain-Specific Architecture (DSA) has driven the development of Agile Hardware Development Methodology (AHDM). Hardware Construction Language (HCL) like Chisel offers high-level abstraction features, making it an ideal language for HCL-Based AHDM. While Large Language Models (LLMs) excel in code generation tasks, they still face challenges with Chisel generation, particularly regarding syntax correctness and design variability. Recent reasoning models have significantly enhanced code generation capabilities through test-time scaling techniques. However, we found that reasoning models without domain adaptation cannot bring substantial benefits to Chisel code generation tasks. This paper presents ChiseLLM, a solution comprising data processing and transformation, prompt-guided reasoning trace synthesis, and domain-adapted model training. We constructed high-quality datasets from public RTL code resources and guided the model to adopt structured thinking patterns through prompt enhancement methods. Experiments demonstrate that our ChiseLLM-7B and ChiseLLM-32B models improved syntax correctness by 18.85% and 26.32% respectively over base models, while increasing variability design ability by 47.58% compared to baseline reasoning models. Our datasets and models are publicly available, providing high-performance, cost-effective models for HCL-Based AHDM, and offering an effective baseline for future research. Github repository: https://github.com/observerw/ChiseLLM
- Abstract(参考訳): ドメイン特化アーキテクチャ(DSA)に対する需要が高まり、アジャイルハードウェア開発方法論(AHDM)の開発が進められている。
Chiselのようなハードウェア構築言語(HCL)はハイレベルな抽象化機能を提供しており、HCLベースのAHDMにとって理想的な言語である。
LLM(Large Language Models)はコード生成タスクに優れていますが、Chisel生成の課題、特に構文の正確性や設計の多様性に直面することになります。
最近の推論モデルでは、テスト時間スケーリング技術によってコード生成機能が大幅に向上している。
しかし、ドメイン適応のない推論モデルは、Chiselコード生成タスクに多大な利益をもたらすことができないことがわかった。
本稿では,データ処理と変換,プロンプト誘導推論トレース合成,ドメイン適応モデルトレーニングを含むソリューションであるChiseLLMを提案する。
パブリックなRTLコードリソースから高品質なデータセットを構築し,迅速な拡張手法による構造化思考パターンの導入を指導した。
実験の結果、我々のChiseLLM-7B と ChiseLLM-32B は、基本モデルよりも構文の正しさを 18.85% と 26.32% 改善し、基本モデルに比べて変数設計能力は 47.58% 向上した。
我々のデータセットとモデルは公開されており、HCLベースのAHDMの高性能で費用対効果の高いモデルを提供し、将来の研究の効果的なベースラインを提供する。
Githubリポジトリ:https://github.com/observerw/ChiseLLM
関連論文リスト
- Syntactic and Semantic Control of Large Language Models via Sequential Monte Carlo [90.78001821963008]
広い範囲のLMアプリケーションは、構文的制約や意味論的制約に適合するテキストを生成する必要がある。
我々は、連続モンテカルロ(SMC)に基づく制御LM生成のためのアーキテクチャを開発する。
我々のシステムはLew et al. (2023) のフレームワーク上に構築されており、言語モデル確率型プログラミング言語と統合されている。
論文 参考訳(メタデータ) (2025-04-17T17:49:40Z) - ModiGen: A Large Language Model-Based Workflow for Multi-Task Modelica Code Generation [26.965467452327445]
大規模言語モデル(LLM)は、コード生成において有望な能力を示しているが、モデリングへの応用はいまだに未検討である。
我々の評価では、生成されたコードがうまくシミュレートできない場合が多いため、現在のLLMのかなりの制限が明らかになっている。
本稿では、教師付き微調整、グラフ検索拡張生成、フィードバック最適化を統合して、Modelicaコード生成の精度と信頼性を向上させるためのワークフローを提案する。
論文 参考訳(メタデータ) (2025-03-24T09:04:49Z) - Learning to Solve and Verify: A Self-Play Framework for Code and Test Generation [69.62857948698436]
大規模言語モデル(LLM)の最近の進歩は、コーディングベンチマークのパフォーマンスを改善している。
しかし、手軽に利用できる高品質なデータの枯渇により、改善は停滞している。
本稿では,単一モデルのコードとテスト生成能力を共同で改善するセルフプレイ・ソルバ検証フレームワークであるSol-Verを提案する。
論文 参考訳(メタデータ) (2025-02-20T18:32:19Z) - Exploring Code Language Models for Automated HLS-based Hardware Generation: Benchmark, Infrastructure and Analysis [14.458529723566379]
LLM(Large Language Model)は、PythonやC++などのプログラミング言語に使用される。
本稿では,LLMを利用してHLS(High-Level Synthesis)ベースのハードウェア設計を行う。
論文 参考訳(メタデータ) (2025-02-19T17:53:59Z) - Can Models Help Us Create Better Models? Evaluating LLMs as Data Scientists [41.94295877935867]
データサイエンスにおける最も知識集約的な課題の1つに取り組むために設計された,大規模言語モデルのベンチマークを示す。
提案手法のFeatEngは,LLMの幅広い能力を安価かつ効率的に評価できることを実証する。
論文 参考訳(メタデータ) (2024-10-30T17:59:01Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - SIaM: Self-Improving Code-Assisted Mathematical Reasoning of Large Language Models [54.78329741186446]
本稿では,コードに基づく批判モデルを用いて,質問コードデータ構築,品質管理,補完的評価などのステップをガイドする新しいパラダイムを提案する。
英語と中国語におけるドメイン内ベンチマークとドメイン外ベンチマークの両方の実験は、提案したパラダイムの有効性を実証している。
論文 参考訳(メタデータ) (2024-08-28T06:33:03Z) - Generative Design through Quality-Diversity Data Synthesis and Language Models [5.196236145367301]
エンジニアリングアプリケーションにおける2つの基本的な課題は、ハイパフォーマンスで多様なデータセットの取得と、生成された設計における正確な制約への固執である。
アーキテクチャ設計におけるこれらの課題に取り組むために,最適化,制約満足度,言語モデルを組み合わせた新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-05-16T11:30:08Z) - Xiwu: A Basis Flexible and Learnable LLM for High Energy Physics [8.483323041108774]
大規模言語モデル(LLM)は、急激な更新と変更の期間を経ている。
モデル自体を前進させながら、ユニークなドメイン知識を取得することは困難です。
Xiwuという名前の高度な大規模言語モデルシステムが開発され、最も先進的な基礎モデルの切り替えが可能になった。
論文 参考訳(メタデータ) (2024-04-08T07:37:31Z) - Enhancing Code Generation Performance of Smaller Models by Distilling the Reasoning Ability of LLMs [36.409470894115074]
我々は、LLMのコード生成推論機能をより小さなモデルに転送することを目的としたCodePLANフレームワークを提案する。
提案手法は,APPSベンチマークにおいて,より小さなモデルのコード生成性能を130%以上向上させる。
論文 参考訳(メタデータ) (2024-03-20T03:09:54Z) - LLM-Assisted Code Cleaning For Training Accurate Code Generators [53.087019724256606]
コードの品質を調査した結果,より構造化され,読みやすくなれば,コード生成性能が向上することがわかった。
私たちは、これらの原則を使って既存のプログラムを変換する、新しいデータクリーニングパイプラインを構築します。
提案手法を2つのアルゴリズムコード生成ベンチマークで評価した結果,微調整のCodeLLaMa-7Bでは,元のデータセットの微調整に比べて最大30%性能が向上していることがわかった。
論文 参考訳(メタデータ) (2023-11-25T02:45:50Z) - The Languini Kitchen: Enabling Language Modelling Research at Different
Scales of Compute [66.84421705029624]
本稿では,アクセル時間で測定された等価計算に基づくモデル比較を可能にする実験的プロトコルを提案する。
私たちは、既存の学術的ベンチマークを上回り、品質、多様性、文書の長さで上回る、大規模で多様で高品質な書籍データセットを前処理します。
この研究は、GPT-2アーキテクチャから派生したフィードフォワードモデルと、10倍のスループットを持つ新しいLSTMの形式でのリカレントモデルという2つのベースラインモデルも提供する。
論文 参考訳(メタデータ) (2023-09-20T10:31:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。