論文の概要: AutoAssert 1: A LoRA Fine-Tuned LLM Model for Efficient Automated Assertion Generation
- arxiv url: http://arxiv.org/abs/2508.07371v1
- Date: Sun, 10 Aug 2025 14:43:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.829411
- Title: AutoAssert 1: A LoRA Fine-Tuned LLM Model for Efficient Automated Assertion Generation
- Title(参考訳): AutoAssert 1: 効率的なオートマチックアサーション生成のためのLORA微調整LDMモデル
- Authors: Yi Zhong, Hongchao Liu, Di ZHao,
- Abstract要約: ハードウェア記述言語(HDL)に基づく新たなアサーション生成手法を提案する。
この方法は、軽量でパラメータ調整可能な大規模言語モデル(LLM)とUnslothプラットフォームを組み合わせて、テストケースを自動的に生成する。
実験により,本手法はハードウェア論理に厳密に準拠するアサーションを効率的に生成できることを示す。
- 参考スコア(独自算出の注目度): 7.079582666971148
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the complexity of software systems continues to increase, the demand for automated testing and maintenance tools is growing exponentially. To meet this urgent need, we propose a new assertion generation method based on Hardware Description Language (HDL). This method combines a lightweight, parameter-adjustable large language model (LLM) with the Unsloth platform to automatically generate test cases, thereby significantly reducing training costs without sacrificing accuracy or generalization performance. Empirical evaluation shows that our method can efficiently generate assertions that strictly conform to the hardware logic. This framework provides a robust and flexible solution to modern software testing and maintenance challenges. https://github.com/liusu-orange/AutoAssert-1 and https://gitee.com/OpenBPU/auto-assert1 are the locations of the source code.
- Abstract(参考訳): ソフトウェアシステムの複雑さが増し続けており、自動テストとメンテナンスツールの需要は指数関数的に増加している。
そこで本研究では,ハードウェア記述言語(HDL)に基づくアサーション生成手法を提案する。
この方法は、軽量でパラメータ調整可能な大言語モデル(LLM)とUnslothプラットフォームを組み合わせて、テストケースを自動的に生成し、精度や一般化性能を犠牲にすることなく、トレーニングコストを大幅に削減する。
実験により,本手法はハードウェア論理に厳密に準拠するアサーションを効率的に生成できることを示す。
このフレームワークは、現代的なソフトウェアテストとメンテナンスの課題に対して、堅牢で柔軟なソリューションを提供します。
https://github.com/liusu-orange/AutoAssert-1とhttps://gitee.com/OpenBPU/auto-assert1はソースコードの場所である。
関連論文リスト
- Towards Automated Formal Verification of Backend Systems with LLMs [9.66648456498893]
バックエンドのコードを形式的なリーン表現に変換するために,関数型プログラミングと型システムを活用する新しいフレームワークを提案する。
我々のパイプラインは、APIやデータベース操作の意図した振る舞いを規定する定理を自動生成し、LSMベースのプロバーを用いて検証する。
本手法を現実的なバックエンドシステム上で評価した結果,テスト要件の50%以上を正式に検証できることがわかった。
論文 参考訳(メタデータ) (2025-04-13T16:49:37Z) - Learning to Solve and Verify: A Self-Play Framework for Code and Test Generation [69.62857948698436]
大規模言語モデル(LLM)の最近の進歩は、コーディングベンチマークのパフォーマンスを改善している。
しかし、手軽に利用できる高品質なデータの枯渇により、改善は停滞している。
本稿では,単一モデルのコードとテスト生成能力を共同で改善するセルフプレイ・ソルバ検証フレームワークであるSol-Verを提案する。
論文 参考訳(メタデータ) (2025-02-20T18:32:19Z) - The Potential of LLMs in Automating Software Testing: From Generation to Reporting [0.0]
手動テストは効果的だが、時間とコストがかかり、自動化メソッドの需要が増大する。
大規模言語モデル(LLM)の最近の進歩は、ソフトウェア工学に大きな影響を与えている。
本稿では,人間の介入を減らし,テスト効率を向上させるため,LSMを用いた自動ソフトウェアテストに対するエージェント指向アプローチについて検討する。
論文 参考訳(メタデータ) (2024-12-31T02:06:46Z) - Harnessing the Power of LLMs: Automating Unit Test Generation for High-Performance Computing [7.3166218350585135]
ユニットテストは、品質を保証するために、ソフトウェア工学において不可欠です。
並列処理や高性能計算ソフトウェア、特に科学応用では広く使われていない。
本稿では,このようなソフトウェアを対象としたユニットテストの自動生成手法を提案する。
論文 参考訳(メタデータ) (2024-07-06T22:45:55Z) - Self-play with Execution Feedback: Improving Instruction-following Capabilities of Large Language Models [54.14602121129874]
トレーニングデータを自動的に生成する最初のスケーラブルで信頼性の高いAutoIFを導入する。
AutoIFは命令追従データ品質の検証をコード検証に変換する。
論文 参考訳(メタデータ) (2024-06-19T13:29:53Z) - Laurel: Unblocking Automated Verification with Large Language Models [2.6942525604796366]
大規模言語モデルを用いてアサーションを自動的に生成するツールであるLaurellを提案する。
実世界の3つのDafnysから抽出した複雑な補題のデータセットであるDafnyGymを、新しいベンチマークで評価した。
論文 参考訳(メタデータ) (2024-05-27T03:26:01Z) - Automating REST API Postman Test Cases Using LLM [0.0]
本稿では,大規模言語モデルを用いたテストケースの自動生成手法の探索と実装について述べる。
この方法論は、テストケース生成の効率性と有効性を高めるために、Open AIの使用を統合する。
この研究で開発されたモデルは、手作業で収集したポストマンテストケースやさまざまなRest APIのインスタンスを使ってトレーニングされている。
論文 参考訳(メタデータ) (2024-04-16T15:53:41Z) - Cheaply Evaluating Inference Efficiency Metrics for Autoregressive
Transformer APIs [66.30706841821123]
大規模言語モデル(LLM)は、自然言語処理において多くの最先端システムに電力を供給する。
LLMは、推論時でさえ非常に計算コストが高い。
モデル間での推論効率を比較するための新しい指標を提案する。
論文 参考訳(メタデータ) (2023-05-03T21:51:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。