論文の概要: TestSpark: IntelliJ IDEA's Ultimate Test Generation Companion
- arxiv url: http://arxiv.org/abs/2401.06580v1
- Date: Fri, 12 Jan 2024 13:53:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 19:21:52.657178
- Title: TestSpark: IntelliJ IDEA's Ultimate Test Generation Companion
- Title(参考訳): TestSpark:IntelliJ IDEAの究極のテスト生成コンパニオン
- Authors: Arkadii Sapozhnikov, Mitchell Olsthoorn, Annibale Panichella, Vladimir
Kovalenko, Pouria Derakhshanfar
- Abstract要約: 本稿では,IntelliJ IDEA用のプラグインであるTestSparkを紹介する。
TestSparkは、生成された各テストを容易に修正して実行し、それらをプロジェクトワークフローに統合することを可能にする。
- 参考スコア(独自算出の注目度): 15.13443954421825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Writing software tests is laborious and time-consuming. To address this,
prior studies introduced various automated test-generation techniques. A
well-explored research direction in this field is unit test generation, wherein
artificial intelligence (AI) techniques create tests for a method/class under
test. While many of these techniques have primarily found applications in a
research context, existing tools (e.g., EvoSuite, Randoop, and AthenaTest) are
not user-friendly and are tailored to a single technique. This paper introduces
TestSpark, a plugin for IntelliJ IDEA that enables users to generate unit tests
with only a few clicks directly within their Integrated Development Environment
(IDE). Furthermore, TestSpark also allows users to easily modify and run each
generated test and integrate them into the project workflow. TestSpark
leverages the advances of search-based test generation tools, and it introduces
a technique to generate unit tests using Large Language Models (LLMs) by
creating a feedback cycle between the IDE and the LLM. Since TestSpark is an
open-source (https://github.com/JetBrains-Research/TestSpark), extendable, and
well-documented tool, it is possible to add new test generation methods into
the plugin with the minimum effort. This paper also explains our future studies
related to TestSpark and our preliminary results. Demo video:
https://youtu.be/0F4PrxWfiXo
- Abstract(参考訳): ソフトウェアテストを書くのは手間と時間を要する。
これを解決するために、先行研究は様々な自動テスト生成技術を導入した。
この分野でよく研究されている方向は単体テスト生成であり、人工知能(AI)技術はテスト中のメソッド/クラスのテストを作成する。
これらのテクニックの多くは主に研究の文脈で応用されているが、既存のツール(例えば、EvoSuite、Randoop、AthenaTest)はユーザーフレンドリーではなく、単一のテクニックに適合している。
本稿では,IntelliJ IDEA用のプラグインであるTestSparkを紹介し,IDE(Integrated Development Environment)内で数クリックで単体テストを生成する。
さらにtestsparkでは,生成したテストの修正や実行も簡単にでき,プロジェクトワークフローに統合することもできる。
TestSparkは検索ベースのテスト生成ツールの進歩を活用し、IDEとLLMの間のフィードバックサイクルを作成することで、LLM(Large Language Models)を使用したユニットテストを生成するテクニックを導入している。
TestSparkはオープンソース(https://github.com/JetBrains-Research/TestSpark)であり、拡張可能で文書化されたツールであるため、最小限の努力で新しいテスト生成メソッドをプラグインに追加することができる。
本稿では,テストパークに関する今後の研究と予備結果についても述べる。
デモビデオ: https://youtu.be/0f4prxwfixo
関連論文リスト
- ProjectTest: A Project-level LLM Unit Test Generation Benchmark and Impact of Error Fixing Mechanisms [48.43237545197775]
単体テスト生成はLLMの有望かつ重要なユースケースとなっている。
ProjectTestは、Python、Java、JavaScriptをカバーするユニットテスト生成のためのプロジェクトレベルのベンチマークである。
論文 参考訳(メタデータ) (2025-02-10T15:24:30Z) - Learning to Generate Unit Tests for Automated Debugging [52.63217175637201]
ユニットテスト(UT)は、コードの正確性を評価するだけでなく、大きな言語モデル(LLM)へのフィードバックを提供する上でも重要な役割を果たします。
提案するUTGenは,LLMに対して,予測出力とともにエラーを示す単体テスト入力を生成することを教える。
UTGenがUT生成ベースラインを7.59%向上させることを示す。
論文 参考訳(メタデータ) (2025-02-03T18:51:43Z) - LlamaRestTest: Effective REST API Testing with Small Language Models [50.058600784556816]
LlamaRestTestは、2つのカスタムLCMを使って現実的なテストインプットを生成する新しいアプローチである。
LlamaRestTestは、RESTGPTで強化された仕様でさえ、コードカバレッジとエラー検出において最先端のツールを上回っている。
論文 参考訳(メタデータ) (2025-01-15T05:51:20Z) - Commit0: Library Generation from Scratch [77.38414688148006]
Commit0は、AIエージェントにスクラッチからライブラリを書くよう促すベンチマークである。
エージェントには、ライブラリのAPIを概説する仕様文書と、インタラクティブなユニットテストスイートが提供されている。
Commit0はまた、モデルが生成したコードに対して静的解析と実行フィードバックを受け取る、インタラクティブな環境も提供する。
論文 参考訳(メタデータ) (2024-12-02T18:11:30Z) - ASTER: Natural and Multi-language Unit Test Generation with LLMs [6.259245181881262]
静的解析を組み込んだジェネリックパイプラインを記述し,コンパイル可能な高カバレッジテストケースの生成においてLCMをガイドする。
コードカバレッジとテスト自然性の観点から,生成したテストの品質を評価するための実証的研究を行った。
論文 参考訳(メタデータ) (2024-09-04T21:46:18Z) - A System for Automated Unit Test Generation Using Large Language Models and Assessment of Generated Test Suites [1.4563527353943984]
大規模言語モデル(LLM)はソフトウェア開発の様々な側面に適用されている。
Javaプロジェクトのテストスイートを生成する自動化システムであるAgoneTestを紹介します。
論文 参考訳(メタデータ) (2024-08-14T23:02:16Z) - Observation-based unit test generation at Meta [52.4716552057909]
TestGenは、アプリケーション実行中に観察された複雑なオブジェクトのシリアライズされた観察から作られたユニットテストを自動的に生成する。
TestGenは518のテストを本番環境に投入し、継続的統合で9,617,349回実行され、5,702の障害が見つかった。
評価の結果,信頼性の高い4,361のエンドツーエンドテストから,少なくとも86%のクラスでテストを生成することができた。
論文 参考訳(メタデータ) (2024-02-09T00:34:39Z) - PyTester: Deep Reinforcement Learning for Text-to-Testcase Generation [20.441921569948562]
テスト駆動開発(TDD)は、実際のコードを書く前に要件に基づいてテストケースを書くことを義務付ける。
テストケースを書くことはTDDの中心ですが、時間がかかり、コストがかかり、開発者が悩まされることも少なくありません。
PyTesterは、テキストからテストケースを生成するアプローチで、正しい、実行可能な、完全な、効果的なテストケースを自動的に生成します。
論文 参考訳(メタデータ) (2024-01-15T10:21:58Z) - Do Automatic Test Generation Tools Generate Flaky Tests? [12.813573907094074]
テスト生成ツールが生成するフレキなテストの頻度と性質はほとんど不明である。
EvoSuite(Java)とPynguin(Python)を使ってテストを生成し、各テストは200回実行します。
この結果から, フレキネスは開発者の手書きテストと同様, 生成テストでも一般的であることが判明した。
論文 参考訳(メタデータ) (2023-10-08T16:44:27Z) - Learning Deep Semantics for Test Completion [46.842174440120196]
テスト完了の新たなタスクを形式化し、テスト対象の文のコンテキストとコードに基づいて、テストメソッドで次のステートメントを自動的に完了する。
テスト補完にコードセマンティクスを用いたディープラーニングモデルであるTeCoを開発した。
論文 参考訳(メタデータ) (2023-02-20T18:53:56Z) - Automated Support for Unit Test Generation: A Tutorial Book Chapter [21.716667622896193]
単体テストは、システムの他の部分と独立してテストできる最小のコードセグメントをテストする段階である。
単体テストは通常実行可能なコードとして書かれ、Pythonのpytestのような単体テストフレームワークが提供する形式で書かれる。
本章では,検索に基づく単体テスト生成の概念を紹介する。
論文 参考訳(メタデータ) (2021-10-26T11:13:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。