論文の概要: Enhancing LLM-Based Test Generation by Eliminating Covered Code
- arxiv url: http://arxiv.org/abs/2602.21997v1
- Date: Wed, 25 Feb 2026 15:16:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.878377
- Title: Enhancing LLM-Based Test Generation by Eliminating Covered Code
- Title(参考訳): カバーコード除去によるLCMベーステスト生成の強化
- Authors: WeiZhe Xu, Mengyu Liu, Fanxin Kong,
- Abstract要約: 大規模言語モデル(LLM)は、テスト生成を改善することを約束している。
スケーラブルなLLMベースの単体テスト生成法を提案する。
提案手法は,最先端のLCM法および検索法より優れている。
- 参考スコア(独自算出の注目度): 2.2566909388480743
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Automated test generation is essential for software quality assurance, with coverage rate serving as a key metric to ensure thorough testing. Recent advancements in Large Language Models (LLMs) have shown promise in improving test generation, particularly in achieving higher coverage. However, while existing LLM-based test generation solutions perform well on small, isolated code snippets, they struggle when applied to complex methods under test. To address these issues, we propose a scalable LLM-based unit test generation method. Our approach consists of two key steps. The first step is context information retrieval, which uses both LLMs and static analysis to gather relevant contextual information associated with the complex methods under test. The second step, iterative test generation with code elimination, repeatedly generates unit tests for the code slice, tracks the achieved coverage, and selectively removes code segments that have already been covered. This process simplifies the testing task and mitigates issues arising from token limits or reduced reasoning effectiveness associated with excessively long contexts. Through comprehensive evaluations on open-source projects, our approach outperforms state-of-the-art LLM-based and search-based methods, demonstrating its effectiveness in achieving high coverage on complex methods.
- Abstract(参考訳): ソフトウェアの品質保証には自動テスト生成が不可欠です。
大規模言語モデル(LLM)の最近の進歩は、特に高いカバレッジを達成する上で、テスト生成を改善することを約束している。
しかし、既存のLLMベースのテスト生成ソリューションは、小さな独立したコードスニペット上ではうまく機能するが、テスト中の複雑なメソッドに適用する場合は苦労する。
これらの問題に対処するために、スケーラブルなLLMベースの単体テスト生成法を提案する。
私たちのアプローチは2つの重要なステップで構成されています。
最初のステップはコンテキスト情報検索であり、LLMと静的解析の両方を用いて、テスト中の複雑なメソッドに関連する関連するコンテキスト情報を収集する。
2番目のステップは、コード消去を伴う反復的なテスト生成で、コードスライスのためのユニットテストを繰り返し生成し、達成されたカバレッジを追跡し、すでにカバーされているコードセグメントを選択的に削除する。
このプロセスは、テストタスクを単純化し、トークン制限から生じる問題や、過度に長いコンテキストに関連する推論の有効性を軽減します。
提案手法は,オープンソースプロジェクトの総合評価を通じて,最先端のLCMおよび検索に基づく手法よりも優れており,複雑な手法で高いカバレッジを実現する上での有効性を実証している。
関連論文リスト
- PALM: Synergizing Program Analysis and LLMs to Enhance Rust Unit Test Coverage [14.702182387149547]
本稿では,大規模言語モデル(LLM)を活用して高カバレッジ単体テストを生成する手法であるPALMを提案する。
PALMはプログラム解析を行い、関数内の分岐条件を特定し、それを経路制約に結合する。
このアプローチを実装し、それを15のオープンソースのRustクラッドで評価します。
論文 参考訳(メタデータ) (2025-06-10T17:21:21Z) - HITS: High-coverage LLM-based Unit Test Generation via Method Slicing [37.43624865049592]
大規模言語モデル(LLM)は、Javaプロジェクトの単体テストの生成においてうまく振る舞っている。
しかし、プロジェクト内の複雑な焦点メソッドをカバーするパフォーマンスは貧弱である。
そこで本研究では, 焦点メソッドをスライスに分解し, LLMに対してスライス毎にテストケーススライスを生成することを提案する。
論文 参考訳(メタデータ) (2024-08-21T04:14:26Z) - Benchmarking Uncertainty Quantification Methods for Large Language Models with LM-Polygraph [83.90988015005934]
不確実性定量化は機械学習アプリケーションにおいて重要な要素である。
最新のUQベースラインの集合を実装した新しいベンチマークを導入する。
我々は、11タスクにわたるUQと正規化技術に関する大規模な実証的研究を行い、最も効果的なアプローチを特定した。
論文 参考訳(メタデータ) (2024-06-21T20:06:31Z) - StepCoder: Improve Code Generation with Reinforcement Learning from
Compiler Feedback [58.20547418182074]
2つの主要コンポーネントからなるコード生成の新しいフレームワークであるStepCoderを紹介します。
CCCSは、長いシーケンスのコード生成タスクをCurriculum of Code Completion Subtaskに分割することで、探索課題に対処する。
FGOは、未実行のコードセグメントをマスクすることでのみモデルを最適化し、Fine-Grained Optimizationを提供する。
提案手法は,出力空間を探索し,対応するベンチマークにおいて最先端の手法より優れた性能を発揮する。
論文 参考訳(メタデータ) (2024-02-02T13:14:31Z) - Code-Aware Prompting: A study of Coverage Guided Test Generation in Regression Setting using LLM [32.44432906540792]
テスト生成における大規模言語モデルのコード認識促進戦略であるSymPromptを提案する。
SymPromptは、正しいテスト世代を5倍に増やし、CodeGen2の相対カバレッジを26%向上させる。
特に、GPT-4に適用すると、SymPromptはベースラインのプロンプト戦略に比べて2倍以上のカバレッジが向上する。
論文 参考訳(メタデータ) (2024-01-31T18:21:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。