論文の概要: On the Energy Consumption of Test Generation
- arxiv url: http://arxiv.org/abs/2501.09657v1
- Date: Thu, 16 Jan 2025 16:52:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-17 15:11:16.922514
- Title: On the Energy Consumption of Test Generation
- Title(参考訳): テスト生成のエネルギー消費について
- Authors: Fitsum Kifetew, Davide Prandi, Angelo Susi,
- Abstract要約: 本研究では,EvoSuiteが生成したテストの実行時に消費するエネルギーと,生成したテストケースの実行時に消費するエネルギーを計測する。
その結果、異なるテスト生成アルゴリズムは、特に高サイクロマティックな複雑性を持つクラスにおいて、異なる量のエネルギーを消費したことが明らかとなった。
- 参考スコア(独自算出の注目度): 0.8749675983608172
- License:
- Abstract: Research in the area of automated test generation has seen remarkable progress in recent years, resulting in several approaches and tools for effective and efficient generation of test cases. In particular, the EvoSuite tool has been at the forefront of this progress embodying various algorithms for automated test generation of Java programs. EvoSuite has been used to generate test cases for a wide variety of programs as well. While there are a number of empirical studies that report results on the effectiveness, in terms of code coverage and other related metrics, of the various test generation strategies and algorithms implemented in EvoSuite, there are no studies, to the best of our knowledge, on the energy consumption associated to the automated test generation. In this paper, we set out to investigate this aspect by measuring the energy consumed by EvoSuite when generating tests. We also measure the energy consumed in the execution of the test cases generated, comparing them with those manually written by developers. The results show that the different test generation algorithms consumed different amounts of energy, in particular on classes with high cyclomatic complexity. Furthermore, we also observe that manual tests tend to consume more energy as compared to automatically generated tests, without necessarily achieving higher code coverage. Our results also give insight into the methods that consume significantly higher levels of energy, indicating potential points of improvement both for EvoSuite as well as the different programs under test.
- Abstract(参考訳): 近年、自動テスト生成の分野での研究は目覚ましい進歩を遂げており、効率的なテストケース生成のためのいくつかのアプローチとツールが生み出されている。
特に、EvoSuiteツールは、Javaプログラムの自動テスト生成のための様々なアルゴリズムを具現化した、この進歩の最前線にあった。
EvoSuiteは様々なプログラムのテストケースを生成するためにも使われてきた。
コードカバレッジや関連するメトリクス,EvoSuiteで実装されたさまざまなテスト生成戦略やアルゴリズムについて,その結果を報告する実証的研究は数多くあるが,私たちの知る限りでは,自動テスト生成に関連するエネルギー消費に関する研究はない。
本稿では,EvoSuiteがテスト生成時に消費するエネルギーを計測することで,この側面を解明することを試みた。
また、テストケースの生成時に消費されるエネルギーを、開発者が手作業で書いたものと比較します。
その結果, 異なるテスト生成アルゴリズムは, 特にサイクロマティックな複雑度の高いクラスにおいて, 異なる量のエネルギーを消費することがわかった。
さらに、手動テストは、必ずしも高いコードカバレッジを達成することなく、自動生成されたテストよりもエネルギーを消費する傾向があることも観察しています。
また,EvoSuiteと試験対象の異なるプログラムの双方において,高いレベルのエネルギーを消費する手法について考察した。
関連論文リスト
- Disrupting Test Development with AI Assistants [1.024113475677323]
GitHub Copilot、ChatGPT、TabnineなどのジェネレーティブAI支援コーディングツールは、ソフトウェア開発を大きく変えた。
本稿では、これらのイノベーションが生産性とソフトウェア開発のメトリクスにどのように影響するかを分析する。
論文 参考訳(メタデータ) (2024-11-04T17:52:40Z) - ASTER: Natural and Multi-language Unit Test Generation with LLMs [6.259245181881262]
静的解析を組み込んだジェネリックパイプラインを記述し,コンパイル可能な高カバレッジテストケースの生成においてLCMをガイドする。
コードカバレッジとテスト自然性の観点から,生成したテストの品質を評価するための実証的研究を行った。
論文 参考訳(メタデータ) (2024-09-04T21:46:18Z) - Leveraging Large Language Models for Enhancing the Understandability of Generated Unit Tests [4.574205608859157]
我々は,検索ベースのソフトウェアテストと大規模言語モデルを組み合わせたUTGenを導入し,自動生成テストケースの理解性を向上する。
UTGenテストケースで課題に取り組む参加者は、最大33%のバグを修正し、ベースラインテストケースと比較して最大20%の時間を使用できます。
論文 参考訳(メタデータ) (2024-08-21T15:35:34Z) - A System for Automated Unit Test Generation Using Large Language Models and Assessment of Generated Test Suites [1.4563527353943984]
大規模言語モデル(LLM)はソフトウェア開発の様々な側面に適用されている。
Javaプロジェクトのテストスイートを生成する自動化システムであるAgoneTestを紹介します。
論文 参考訳(メタデータ) (2024-08-14T23:02:16Z) - Towards Automatic Generation of Amplified Regression Test Oracles [44.45138073080198]
回帰テストオラクルを増幅するためのテストオラクル導出手法を提案する。
このアプローチはテスト実行中にオブジェクトの状態を監視し、以前のバージョンと比較して、SUTの意図した振る舞いに関連する変更を検出する。
論文 参考訳(メタデータ) (2023-07-28T12:38:44Z) - From Static Benchmarks to Adaptive Testing: Psychometrics in AI Evaluation [60.14902811624433]
本稿では,静的評価手法から適応テストへのパラダイムシフトについて論じる。
これには、ベンチマークで各テスト項目の特性と価値を推定し、リアルタイムでアイテムを動的に調整することが含まれる。
我々は、AI評価にサイコメトリックを採用する現在のアプローチ、アドバンテージ、そして根底にある理由を分析します。
論文 参考訳(メタデータ) (2023-06-18T09:54:33Z) - CodeT: Code Generation with Generated Tests [49.622590050797236]
テストケースを自動的に生成するための事前学習言語モデルについて検討する。
CodeTは生成されたテストケースを使ってコードソリューションを実行し、次に最良のソリューションを選択します。
我々は,HumanEvalとMBPPのベンチマークを用いて,5種類の事前学習モデル上でCodeTを評価する。
論文 参考訳(メタデータ) (2022-07-21T10:18:37Z) - TTAPS: Test-Time Adaption by Aligning Prototypes using Self-Supervision [70.05605071885914]
本研究では,単体テストサンプルに適用可能な自己教師付きトレーニングアルゴリズムSwaVの新たな改良を提案する。
ベンチマークデータセットCIFAR10-Cにおいて,本手法の有効性を示す。
論文 参考訳(メタデータ) (2022-05-18T05:43:06Z) - Guiding Generative Language Models for Data Augmentation in Few-Shot
Text Classification [59.698811329287174]
我々は、GPT-2を用いて、分類性能を向上させるために、人工訓練インスタンスを生成する。
実験の結果,少数のラベルインスタンスでGPT-2を微調整すると,一貫した分類精度が向上することがわかった。
論文 参考訳(メタデータ) (2021-11-17T12:10:03Z) - Online GANs for Automatic Performance Testing [0.10312968200748115]
GAN(Generative Adversarial Network)のオンライン版を利用した自動パフォーマンステストのための新しいアルゴリズムを提案する。
提案手法では、テスト中のシステムの事前のトレーニングセットやモデルを必要としない。
我々は,提案アルゴリズムが概念実証として機能し,GANの試験生成への応用に関する研究議論の火花となることを期待する。
論文 参考訳(メタデータ) (2021-04-21T06:03:27Z) - Dynamic Causal Effects Evaluation in A/B Testing with a Reinforcement
Learning Framework [68.96770035057716]
A/Bテスト(A/B Testing)は、新しい製品を製薬、技術、伝統産業の古い製品と比較するビジネス戦略である。
本稿では,オンライン実験においてA/Bテストを実施するための強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-05T10:25:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。