論文の概要: EmbC-Test: How to Speed Up Embedded Software Testing Using LLMs and RAG
- arxiv url: http://arxiv.org/abs/2603.09497v1
- Date: Tue, 10 Mar 2026 10:58:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:24.243801
- Title: EmbC-Test: How to Speed Up Embedded Software Testing Using LLMs and RAG
- Title(参考訳): EmbC-Test: LLMとRAGを使用した組み込みソフトウェアテストの高速化
- Authors: Maximilian Harnot, Sebastian Komarnicki, Michal Polok, Timo Oksanen,
- Abstract要約: 本稿では、検証プロセスの部分的自動化のためのソリューションとして、検索拡張生成(RAG)パイプラインを提案する。
産業評価の結果、生成したテストは100%構文的に正しく、85パーセントが実行時検証に合格した。
- 参考スコア(独自算出の注目度): 0.9332987715848716
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Manual development of automatic tests for embedded C software is a strenuous and time-consuming task that does not scale well. With the accelerating pace of software release cycles, verification increasingly becomes the bottleneck in the embedded development workflow. This paper presents a Retrieval-Augmented Generation (RAG) pipeline as a solution for partial automation of the verification process. By grounding a large language model in project-specific artifacts, the approach reduces hallucinations and improves project alignment. An industrial evaluation showed that the generated tests are 100 % syntactically correct, with 85 % successfully passing runtime validation. The proposed solution has the potential to save up to 66 % of the testing time compared to manual test writing while generating 270 tests per hour.
- Abstract(参考訳): 組み込みCソフトウェアの自動テストのマニュアル開発は、スケーラビリティが良くない頑丈で時間を要する作業である。
ソフトウェアリリースサイクルが加速するにつれ、検証が組み込み開発ワークフローのボトルネックとなりつつあります。
本稿では、検証プロセスの部分的自動化のためのソリューションとして、検索拡張生成(RAG)パイプラインを提案する。
プロジェクト固有のアーティファクトに大きな言語モデルを構築することで、幻覚を減らし、プロジェクトのアライメントを改善する。
産業評価の結果、生成したテストは100%構文的に正しく、85パーセントが実行時検証に合格した。
提案したソリューションは、テスト時間の最大66%を、手動によるテスト記述と比較して節約すると同時に、1時間に270のテストを生成する可能性がある。
関連論文リスト
- SWE-Flow: Synthesizing Software Engineering Data in a Test-Driven Manner [53.54568352375669]
テスト駆動開発(TDD)に基づく新しいデータ合成フレームワーク**SWE-Flow*を紹介します。
人為的な問題に依存する既存のソフトウェアエンジニアリングデータとは異なり、**SWE-Flow*は、単体テストから直接インクリメンタルな開発ステップを推論する。
私たちは現実のGitHubプロジェクトから16,061のトレーニングインスタンスと2,020のテストインスタンスを生成し、**SWE-Flow-Eval**ベンチマークを作成しました。
論文 参考訳(メタデータ) (2025-06-10T17:23:33Z) - PALM: Synergizing Program Analysis and LLMs to Enhance Rust Unit Test Coverage [14.702182387149547]
本稿では,大規模言語モデル(LLM)を活用して高カバレッジ単体テストを生成する手法であるPALMを提案する。
PALMはプログラム解析を行い、関数内の分岐条件を特定し、それを経路制約に結合する。
このアプローチを実装し、それを15のオープンソースのRustクラッドで評価します。
論文 参考訳(メタデータ) (2025-06-10T17:21:21Z) - Learning to Generate Unit Tests for Automated Debugging [52.63217175637201]
ユニットテスト(UT)は、コードの正確性を評価するだけでなく、大きな言語モデル(LLM)にフィードバックを提供する上でも重要な役割を果たします。
提案するUTGenは,LLMに対して,予測出力とともにエラーを示す単体テスト入力を生成することを教える。
UTGen は他の LLM ベースラインを7.59% 上回っていることを示す。
論文 参考訳(メタデータ) (2025-02-03T18:51:43Z) - Taming Timeout Flakiness: An Empirical Study of SAP HANA [47.29324864511411]
不安定なテストは回帰テストに悪影響を及ぼします。
テストタイムアウトは、このような不安定なテストの失敗に寄与する要因のひとつです。
テストのフレキネス率は、繰り返しテストの実行回数によって49%から70%の範囲である。
論文 参考訳(メタデータ) (2024-02-07T20:01:41Z) - An Empirical Evaluation of Using Large Language Models for Automated
Unit Test Generation [3.9762912548964864]
本稿では,自動単体テスト生成における大規模言語モデルの有効性について,大規模な実証評価を行った。
これはJavaScript用のテスト生成ツールで、npmパッケージ内のすべてのAPI関数のユニットテストを自動的に生成します。
TestPilotの生成されたテストの92.8%は、既存のテストと50%以上の類似性を持っていない。
論文 参考訳(メタデータ) (2023-02-13T17:13:41Z) - SUPERNOVA: Automating Test Selection and Defect Prevention in AAA Video
Games Using Risk Based Testing and Machine Learning [62.997667081978825]
従来の手法では、成長するソフトウェアシステムではスケールできないため、ビデオゲームのテストはますます難しいタスクになります。
自動化ハブとして機能しながら,テスト選択と欠陥防止を行うシステム SUPERNOVA を提案する。
この直接的な影響は、未公表のスポーツゲームタイトルの55%以上のテスト時間を減らすことが観察されている。
論文 参考訳(メタデータ) (2022-03-10T00:47:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。