論文の概要: Software Testing and Code Refactoring: A Survey with Practitioners
- arxiv url: http://arxiv.org/abs/2310.01719v1
- Date: Tue, 3 Oct 2023 01:07:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 05:19:39.198633
- Title: Software Testing and Code Refactoring: A Survey with Practitioners
- Title(参考訳): ソフトウェアテストとコードリファクタリング: 実践者による調査
- Authors: Danilo Leandro Lima, Ronnie de Souza Santos, Guilherme Pires Garcia,
Sildemir S. da Silva, Cesar Franca, Luiz Fernando Capretz
- Abstract要約: 本研究の目的は,ソフトウェアテストのコンテキストにおいて,このプラクティスのメリットと限界を理解するために,ソフトウェアテスト専門家がコードを扱う方法を検討することである。
ソフトウェアテストの文脈では、自動テストのメンテナンスのサポートや、テストチームのパフォーマンス向上など、いくつかのメリットがある、と私たちは結論付けました。
本研究は,テスト専門家が自動テストのコードに実装することの重要性について議論し,コーディング能力の向上を可能にするものである。
- 参考スコア(独自算出の注目度): 3.977213079821398
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays, software testing professionals are commonly required to develop
coding skills to work on test automation. One essential skill required from
those who code is the ability to implement code refactoring, a valued quality
aspect of software development; however, software developers usually encounter
obstacles in successfully applying this practice. In this scenario, the present
study aims to explore how software testing professionals (e.g., software
testers, test engineers, test analysts, and software QAs) deal with code
refactoring to understand the benefits and limitations of this practice in the
context of software testing. We followed the guidelines to conduct surveys in
software engineering and applied three sampling techniques, namely convenience
sampling, purposive sampling, and snowballing sampling, to collect data from
testing professionals. We received answers from 80 individuals reporting their
experience refactoring the code of automated tests. We concluded that in the
context of software testing, refactoring offers several benefits, such as
supporting the maintenance of automated tests and improving the performance of
the testing team. However, practitioners might encounter barriers in
effectively implementing this practice, in particular, the lack of interest
from managers and leaders. Our study raises discussions on the importance of
having testing professionals implement refactoring in the code of automated
tests, allowing them to improve their coding abilities.
- Abstract(参考訳): 今日では、テスト自動化に取り組むためのコーディングスキルを開発するために、ソフトウェアテスト専門家が一般的に求められている。
コードリファクタリングはソフトウェア開発の価値のある品質面である。しかし、ソフトウェア開発者は、このプラクティスをうまく適用する上で障害に遭遇することが多い。
このシナリオでは、ソフトウェアテスティングの専門家(ソフトウェアテスタ、テストエンジニア、テストアナリスト、ソフトウェアqasなど)がコードリファクタリングをどのように扱うかを調査し、ソフトウェアテスティングのコンテキストにおけるこのプラクティスのメリットと制限を理解することを目的としています。
ソフトウェア工学における調査を行うためのガイドラインに従い、テスト専門家からデータを収集するために、利便性サンプリング、提案サンプリング、雪だるまサンプリングという3つのサンプリング手法を適用した。
自動テストのコードをリファクタリングした経験を報告した80人から回答を得ました。
ソフトウェアテストの文脈では、リファクタリングは自動テストのメンテナンスのサポートやテストチームのパフォーマンス向上など、いくつかのメリットがある、と結論付けました。
しかし、実践者は、このプラクティスを効果的に実施するための障壁、特にマネージャやリーダーからの関心の欠如に遭遇する可能性がある。
本研究は、テスト専門家が自動テストのコードにリファクタリングを実装し、コーディング能力を向上させることの重要性に関する議論を提起する。
関連論文リスト
- Codev-Bench: How Do LLMs Understand Developer-Centric Code Completion? [60.84912551069379]
Code-Development Benchmark (Codev-Bench)は、細粒度で現実世界、リポジトリレベル、開発者中心の評価フレームワークです。
Codev-Agentは、リポジトリのクローリングを自動化し、実行環境を構築し、既存のユニットテストから動的呼び出しチェーンを抽出し、データ漏洩を避けるために新しいテストサンプルを生成するエージェントベースのシステムである。
論文 参考訳(メタデータ) (2024-10-02T09:11:10Z) - The Future of Software Testing: AI-Powered Test Case Generation and Validation [0.0]
本稿では、テストケースの生成と検証を改善する上で、AIが持つ変革の可能性について考察する。
テストプロセスの効率性、正確性、スケーラビリティを高める能力に重点を置いている。
また、高品質なトレーニングデータの必要性など、テストにAIを適用する際の重要な課題にも対処している。
論文 参考訳(メタデータ) (2024-09-09T17:12:40Z) - Multi-language Unit Test Generation using LLMs [6.259245181881262]
静的解析を組み込んだジェネリックパイプラインを記述し,コンパイル可能な高カバレッジテストケースの生成においてLCMをガイドする。
パイプラインをさまざまなプログラミング言語、特にJavaとPython、そして環境モックを必要とする複雑なソフトウェアに適用する方法を示します。
以上の結果から,静的解析によって導かれるLCMベースのテスト生成は,最新のテスト生成技術と競合し,さらに性能も向上することが示された。
論文 参考訳(メタデータ) (2024-09-04T21:46:18Z) - Agent-Driven Automatic Software Improvement [55.2480439325792]
本提案は,Large Language Models (LLMs) を利用したエージェントの展開に着目して,革新的なソリューションの探求を目的とする。
継続的学習と適応を可能にするエージェントの反復的性質は、コード生成における一般的な課題を克服するのに役立ちます。
我々は,これらのシステムにおける反復的なフィードバックを用いて,エージェントの基盤となるLLMをさらに微調整し,自動化されたソフトウェア改善のタスクに整合性を持たせることを目指している。
論文 参考訳(メタデータ) (2024-06-24T15:45:22Z) - Leveraging Large Language Models for Efficient Failure Analysis in Game Development [47.618236610219554]
本稿では,テストの失敗の原因となるコードの変更を自動的に識別する手法を提案する。
このメソッドは、LLM(Large Language Models)を利用して、エラーメッセージと対応するコード変更を関連付ける。
当社のアプローチは新たに作成したデータセットで71%の精度に達しています。
論文 参考訳(メタデータ) (2024-06-11T09:21:50Z) - A Comprehensive Study on Automated Testing with the Software Lifecycle [0.6144680854063939]
この研究は、自動テストがソフトウェアの品質を評価するのをいかに簡単にするか、手動テストと比べてどのように時間を節約するか、そして利点と欠点の観点から、それぞれのテストとどのように違うかを調べる。
ソフトウェアアプリケーションのテストプロセスは、単純化され、特定のテスト状況に合わせてカスタマイズされ、自動テストツールを使用してうまく実行される。
論文 参考訳(メタデータ) (2024-05-02T06:30:37Z) - Elevating Software Quality in Agile Environments: The Role of Testing Professionals in Unit Testing [0.0]
テストはソフトウェア開発プロセスにおいて不可欠な品質活動です。
本報告では, 産業環境での単体テストにおけるテストエンジニアの関与について考察する。
論文 参考訳(メタデータ) (2024-03-20T00:41:49Z) - Are We Testing or Being Tested? Exploring the Practical Applications of
Large Language Models in Software Testing [0.0]
LLM(Large Language Model)は、コヒーレントなコンテンツを生成する最先端の人工知能モデルである。
LLMは、ソフトウェアテストを含むソフトウェア開発において重要な役割を担います。
本研究では,産業環境でのソフトウェアテストにおけるLCMの実用化について検討する。
論文 参考訳(メタデータ) (2023-12-08T06:30:37Z) - Using Machine Learning To Identify Software Weaknesses From Software
Requirement Specifications [49.1574468325115]
本研究は、要求仕様からソフトウェア弱点を特定するための効率的な機械学習アルゴリズムを見つけることに焦点を当てる。
ProMISE_exp. Naive Bayes、サポートベクターマシン(SVM)、決定木、ニューラルネットワーク、畳み込みニューラルネットワーク(CNN)アルゴリズムをテストした。
論文 参考訳(メタデータ) (2023-08-10T13:19:10Z) - Towards Informed Design and Validation Assistance in Computer Games
Using Imitation Learning [65.12226891589592]
本稿では,自動ゲーム検証とテストのための新しいアプローチを提案する。
本手法は,データ駆動型模倣学習技術を活用し,時間と労力をほとんど必要とせず,機械学習やプログラミングの知識も必要としない。
論文 参考訳(メタデータ) (2022-08-15T11:08:44Z) - SUPERNOVA: Automating Test Selection and Defect Prevention in AAA Video
Games Using Risk Based Testing and Machine Learning [62.997667081978825]
従来の手法では、成長するソフトウェアシステムではスケールできないため、ビデオゲームのテストはますます難しいタスクになります。
自動化ハブとして機能しながら,テスト選択と欠陥防止を行うシステム SUPERNOVA を提案する。
この直接的な影響は、未公表のスポーツゲームタイトルの55%以上のテスト時間を減らすことが観察されている。
論文 参考訳(メタデータ) (2022-03-10T00:47:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。