論文の概要: Large Language Models for Unit Testing: A Systematic Literature Review
- arxiv url: http://arxiv.org/abs/2506.15227v1
- Date: Wed, 18 Jun 2025 08:11:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-19 19:35:51.584787
- Title: Large Language Models for Unit Testing: A Systematic Literature Review
- Title(参考訳): ユニットテストのための大規模言語モデル: 体系的な文献レビュー
- Authors: Quanjun Zhang, Chunrong Fang, Siqi Gu, Ye Shang, Zhenyu Chen, Liang Xiao,
- Abstract要約: 本稿では,2025年3月までの単体テストにおける大規模言語モデルの適用に関する,最初の体系的な文献レビューを示す。
まず、LLM(例えば、テスト生成とオラクル生成)の恩恵を受ける既存の単体テストタスクを分類する。
次に、モデル利用、適応戦略、ハイブリッドアプローチなど、LLMを単体テスト研究に統合するいくつかの重要な側面について論じる。
- 参考スコア(独自算出の注目度): 13.465045964128196
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unit testing is a fundamental practice in modern software engineering, with the aim of ensuring the correctness, maintainability, and reliability of individual software components. Very recently, with the advances in Large Language Models (LLMs), a rapidly growing body of research has leveraged LLMs to automate various unit testing tasks, demonstrating remarkable performance and significantly reducing manual effort. However, due to ongoing explorations in the LLM-based unit testing field, it is challenging for researchers to understand existing achievements, open challenges, and future opportunities. This paper presents the first systematic literature review on the application of LLMs in unit testing until March 2025. We analyze \numpaper{} relevant papers from the perspectives of both unit testing and LLMs. We first categorize existing unit testing tasks that benefit from LLMs, e.g., test generation and oracle generation. We then discuss several critical aspects of integrating LLMs into unit testing research, including model usage, adaptation strategies, and hybrid approaches. We further summarize key challenges that remain unresolved and outline promising directions to guide future research in this area. Overall, our paper provides a systematic overview of the research landscape to the unit testing community, helping researchers gain a comprehensive understanding of achievements and promote future research. Our artifacts are publicly available at the GitHub repository: https://github.com/iSEngLab/AwesomeLLM4UT.
- Abstract(参考訳): 単体テストは、個々のソフトウェアコンポーネントの正確性、保守性、信頼性を保証することを目的とした、現代のソフトウェア工学における基本的なプラクティスである。
最近、LLM(Large Language Models)の進歩により、急速に成長する研究機関は、LLMを活用して様々なユニットテストタスクを自動化し、目覚ましいパフォーマンスを示し、手作業を大幅に削減した。
しかし、LLMベースの単体テスト分野での探索が進行中であるため、研究者が既存の成果、オープンチャレンジ、そして今後の機会を理解することは困難である。
本稿では,2025年3月までの単位試験におけるLSMの適用について,初めて体系的な文献レビューを行った。
単体テストとLLMの両方の観点から, 関連論文を分析した。
まず、LLM、例えば、テスト生成、およびオラクル生成の恩恵を受ける既存の単体テストタスクを分類する。
次に、モデル利用、適応戦略、ハイブリッドアプローチなど、LLMを単体テスト研究に統合するいくつかの重要な側面について論じる。
さらに、未解決のままである重要な課題を要約し、今後の研究の指針となる有望な方向性を概説する。
全体として,本論文は,研究状況の体系的な概要をユニットテスティングコミュニティに提供し,研究成果の包括的理解と今後の研究の促進を支援する。
アーティファクトはGitHubリポジトリで公開されている。 https://github.com/iSEngLab/AwesomeLLM4UT。
関連論文リスト
- A Large-scale Empirical Study on Fine-tuning Large Language Models for Unit Testing [8.22619177301814]
大規模言語モデル(LLM)は、様々な単体テストタスクに可能性を示している。
単体テストのための微調整LDMに関する大規模な実験的検討を行った。
論文 参考訳(メタデータ) (2024-12-21T13:28:11Z) - Large-scale, Independent and Comprehensive study of the power of LLMs for test case generation [11.056044348209483]
クラスやメソッドなどのコードモジュールのバグを特定するのに不可欠なユニットテストは、時間的制約のため、開発者によって無視されることが多い。
GPTやMistralのようなLarge Language Models (LLM)は、テスト生成を含むソフトウェア工学における約束を示す。
論文 参考訳(メタデータ) (2024-06-28T20:38:41Z) - On the Evaluation of Large Language Models in Unit Test Generation [16.447000441006814]
単体テストは、ソフトウェアコンポーネントの正しさを検証するために、ソフトウェア開発において不可欠な活動である。
LLM(Large Language Models)の出現は、ユニットテスト生成を自動化するための新しい方向性を提供する。
論文 参考訳(メタデータ) (2024-06-26T08:57:03Z) - A Software Engineering Perspective on Testing Large Language Models: Research, Practice, Tools and Benchmarks [2.8061460833143346]
大規模言語モデル(LLM)は、スタンドアロンツールとしても、現在および将来のソフトウェアシステムのコンポーネントとしても、急速に普及しています。
LLMを2030年のハイテイクシステムや安全クリティカルシステムで使用するためには、厳格なテストを実施する必要がある。
論文 参考訳(メタデータ) (2024-06-12T13:45:45Z) - Tool Learning with Large Language Models: A Survey [60.733557487886635]
大規模言語モデル(LLM)を用いたツール学習は,高度に複雑な問題に対処するLLMの能力を強化するための,有望なパラダイムとして登場した。
この分野での注目と急速な進歩にもかかわらず、現存する文献は断片化され、体系的な組織が欠如している。
論文 参考訳(メタデータ) (2024-05-28T08:01:26Z) - LLM Inference Unveiled: Survey and Roofline Model Insights [62.92811060490876]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z) - Large Language Models for Generative Information Extraction: A Survey [89.71273968283616]
大規模言語モデル(LLM)は、テキスト理解と生成において顕著な能力を示した。
各種IEサブタスクと技術の観点から,これらの作品を分類して概観する。
我々は,最も先進的な手法を実証的に分析し,LLMによるIEタスクの出現傾向を明らかにする。
論文 参考訳(メタデータ) (2023-12-29T14:25:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。