論文の概要: Unit Test Update through LLM-Driven Context Collection and Error-Type-Aware Refinement
- arxiv url: http://arxiv.org/abs/2509.24419v1
- Date: Mon, 29 Sep 2025 08:08:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.841969
- Title: Unit Test Update through LLM-Driven Context Collection and Error-Type-Aware Refinement
- Title(参考訳): LLM駆動コンテキストコレクションとエラー型認識リファインメントによるユニットテストの更新
- Authors: Yuanhe Zhang, Zhiquan Yang, Shengyi Pan, Zhongxin Liu,
- Abstract要約: テストのメンテナンス方法は、主に壊れたテストの修復に焦点を当て、新しい機能を検証するために既存のテストを強化するシナリオを無視します。
実運用コードの変更に応じて、ジャスト・イン・タイムの自動テスト更新を可能にする新しいアプローチであるTESTUPDATERを提案する。
TestUPDATERは94.4%のコンパイルパス率と86.7%のテストパス率を達成し、それぞれ最先端のSYTERを15.9%と20.0%で上回っている。
- 参考スコア(独自算出の注目度): 5.8748750353007635
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unit testing is critical for ensuring software quality and software system stability. The current practice of manually maintaining unit tests suffers from low efficiency and the risk of delayed or overlooked fixes. Therefore, an automated approach is required to instantly update unit tests, with the capability to both repair and enhance unit tests. However, existing automated test maintenance methods primarily focus on repairing broken tests, neglecting the scenario of enhancing existing tests to verify new functionality. Meanwhile, due to their reliance on rule-based context collection and the lack of verification mechanisms, existing approaches struggle to handle complex code changes and often produce test cases with low correctness. To address these challenges, we propose TESTUPDATER, a novel LLM based approach that enables automated just-in-time test updates in response to production code changes. TESTUPDATER first leverages the LLM to analyze code changes and identify relevant context, which it then extracts and filters. Then, through carefully designed prompts, TESTUPDATER guides the LLM step by step to handle various types of code changes and introduce new dependencies, enabling both test repair and enhancement. Finally, we introduce an error-type-aware iterative refinement mechanism that executes the LLM-updated tests and repairs failures, which significantly improves the overall correctness of test updates. Since existing test repair datasets lack scenarios of test enhancement, we further construct a new benchmark, UPDATES4J, with 195 real-world samples from 7 projects. Experimental results show that TESTUPDATER achieves a compilation pass rate of 94.4% and a test pass rate of 86.7%, outperforming the state-of-the-art method SYNTER by 15.9% and 20.0%, respectively. Furthermore, TESTUPDATER exhibits 12.9% higher branch coverage and 15.2% greater line coverage than SYNTER.
- Abstract(参考訳): ユニットテストは、ソフトウェアの品質とソフトウェアシステムの安定性を保証するために重要です。
ユニットテストを手動でメンテナンスする現在のプラクティスは、低効率と、遅れや見過ごされた修正のリスクに悩まされている。
したがって、単体テストの即時更新には自動化されたアプローチが必要であり、単体テストの修復と強化が可能である。
しかし、既存の自動テストのメンテナンス方法は、主に壊れたテストの修復に焦点を当てており、新しい機能を検証するために既存のテストを強化するシナリオを無視している。
一方、ルールベースのコンテキスト収集への依存と検証メカニズムの欠如により、既存のアプローチは複雑なコード変更の処理に苦労し、しばしば低い正確性でテストケースを生成する。
これらの課題に対処するため、本研究では、運用コードの変更に応じてジャスト・イン・タイムの自動テスト更新を可能にする、新しいLCMベースのアプローチであるTESTUPDATERを提案する。
TESTUPDATER は LLM を利用してコード変更を分析し、関連するコンテキストを特定し、それを抽出してフィルタする。
その後、慎重に設計されたプロンプトを通じて、TESTUPDATERはLLMのステップをガイドして、さまざまなタイプのコード変更を処理し、新しい依存関係を導入し、テストの修復と強化を可能にする。
最後に、LLM更新テストを実行し、故障を修復するエラー型反復改善機構を導入し、テスト更新の全体的な正しさを大幅に改善する。
既存のテスト修復データセットにはテスト強化のシナリオがないため、新たなベンチマークであるUDDATES4Jを構築し、7つのプロジェクトから195個の実世界のサンプルを収集する。
実験結果から,TESTUPDATERはコンパイルパス率94.4%,テストパス率86.7%を達成し,それぞれ15.9%,テストパス率20.0%を上回った。
さらに、TESTUPDATERはSynTERよりも12.9%高いブランチカバレッジと15.2%高いラインカバレッジを示している。
関連論文リスト
- Training Language Models to Generate Quality Code with Program Analysis Feedback [66.0854002147103]
大規模言語モデル(LLM)によるコード生成は、ますます本番環境で採用されているが、コード品質の保証には失敗している。
実運用品質のコードを生成するためにLLMにインセンティブを与える強化学習フレームワークであるREALを提案する。
論文 参考訳(メタデータ) (2025-05-28T17:57:47Z) - Learning to Solve and Verify: A Self-Play Framework for Code and Test Generation [69.62857948698436]
大規模言語モデル(LLM)の最近の進歩は、コーディングベンチマークのパフォーマンスを改善している。
しかし、手軽に利用できる高品質なデータの枯渇により、改善は停滞している。
本稿では,単一モデルのコードとテスト生成能力を共同で改善するセルフプレイ・ソルバ検証フレームワークであるSol-Verを提案する。
論文 参考訳(メタデータ) (2025-02-20T18:32:19Z) - AutoPT: How Far Are We from the End2End Automated Web Penetration Testing? [54.65079443902714]
LLMによって駆動されるPSMの原理に基づく自動浸透試験エージェントであるAutoPTを紹介する。
以上の結果から, AutoPT は GPT-4o ミニモデル上でのベースラインフレームワーク ReAct よりも優れていた。
論文 参考訳(メタデータ) (2024-11-02T13:24:30Z) - TestART: Improving LLM-based Unit Testing via Co-evolution of Automated Generation and Repair Iteration [7.509927117191286]
大規模言語モデル(LLM)は、単体テストケースを生成する際、顕著な能力を示した。
本研究では,新しい単体テスト生成法であるTestARTを提案する。
TestARTは、自動生成と修復の反復の共進化を通じて、LLMベースのユニットテストを改善している。
論文 参考訳(メタデータ) (2024-08-06T10:52:41Z) - Towards Automatic Generation of Amplified Regression Test Oracles [44.45138073080198]
回帰テストオラクルを増幅するためのテストオラクル導出手法を提案する。
このアプローチはテスト実行中にオブジェクトの状態を監視し、以前のバージョンと比較して、SUTの意図した振る舞いに関連する変更を検出する。
論文 参考訳(メタデータ) (2023-07-28T12:38:44Z) - SUPERNOVA: Automating Test Selection and Defect Prevention in AAA Video
Games Using Risk Based Testing and Machine Learning [62.997667081978825]
従来の手法では、成長するソフトウェアシステムではスケールできないため、ビデオゲームのテストはますます難しいタスクになります。
自動化ハブとして機能しながら,テスト選択と欠陥防止を行うシステム SUPERNOVA を提案する。
この直接的な影響は、未公表のスポーツゲームタイトルの55%以上のテスト時間を減らすことが観察されている。
論文 参考訳(メタデータ) (2022-03-10T00:47:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。