論文の概要: Elevating Software Quality in Agile Environments: The Role of Testing Professionals in Unit Testing
- arxiv url: http://arxiv.org/abs/2403.13220v1
- Date: Wed, 20 Mar 2024 00:41:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-21 18:27:31.902724
- Title: Elevating Software Quality in Agile Environments: The Role of Testing Professionals in Unit Testing
- Title(参考訳): アジャイル環境でのソフトウェア品質を高める: 単体テストにおけるテスト専門家の役割
- Authors: Lucas Neves, Oscar Campos, Robson Santos, Italo Santos, Cleyton Magalhaes, Ronnie de Souza Santos,
- Abstract要約: テストはソフトウェア開発プロセスにおいて不可欠な品質活動です。
本報告では, 産業環境での単体テストにおけるテストエンジニアの関与について考察する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Testing is an essential quality activity in the software development process. Usually, a software system is tested on several levels, starting with unit testing that checks the smallest parts of the code until acceptance testing, which is focused on the validations with the end-user. Historically, unit testing has been the domain of developers, who are responsible for ensuring the accuracy of their code. However, in agile environments, testing professionals play an integral role in various quality improvement initiatives throughout each development cycle. This paper explores the participation of test engineers in unit testing within an industrial context, employing a survey-based research methodology. Our findings demonstrate that testing professionals have the potential to strengthen unit testing by collaborating with developers to craft thorough test cases and fostering a culture of mutual learning and cooperation, ultimately contributing to increasing the overall quality of software projects.
- Abstract(参考訳): テストはソフトウェア開発プロセスにおいて不可欠な品質活動です。
通常、ソフトウェアシステムはいくつかのレベルでテストされます。まず、受け入れテストまでコードの最小部分をチェックする単体テストから始まり、エンドユーザーによる検証に焦点を当てます。
歴史的に、ユニットテストはコードの正確性を保証する責任を負う開発者の領域でした。
しかしながら、アジャイル環境では、テスト専門家は開発サイクル毎に様々な品質改善イニシアチブで重要な役割を果たす。
本稿では, 調査に基づく研究手法を用いて, 産業環境での単体テストへのテストエンジニアの参加について検討する。
我々の研究結果は,テスト専門家が開発者と協力して徹底的なテストケースを構築し,相互学習と協力の文化を育み,最終的にソフトウェアプロジェクトの全体的な品質向上に寄与することで,単体テストを強化する可能性を示唆している。
関連論文リスト
- A Comprehensive Study on Automated Testing with the Software Lifecycle [0.6144680854063939]
この研究は、自動テストがソフトウェアの品質を評価するのをいかに簡単にするか、手動テストと比べてどのように時間を節約するか、そして利点と欠点の観点から、それぞれのテストとどのように違うかを調べる。
ソフトウェアアプリケーションのテストプロセスは、単純化され、特定のテスト状況に合わせてカスタマイズされ、自動テストツールを使用してうまく実行される。
論文 参考訳(メタデータ) (2024-05-02T06:30:37Z) - Survey of Computerized Adaptive Testing: A Machine Learning Perspective [66.26687542572974]
コンピュータ適応テスト (Computerized Adaptive Testing, CAT) は、試験の熟練度を評価するための効率的で調整された方法である。
本稿では,この適応テスト手法に対する新たな視点を提示し,機械学習に着目したCATに関する調査を行うことを目的とする。
論文 参考訳(メタデータ) (2024-03-31T15:09:47Z) - Gamified GUI testing with Selenium in the IntelliJ IDE: A Prototype Plugin [0.559239450391449]
本稿では,IntelliJ IDEA用のガミフィケーションプラグインのプロトタイプであるGIPGUTについて述べる。
このプラグインは、達成、報酬、プロファイルのカスタマイズを通じて、単調で退屈なタスクにテスタのエンゲージメントを高める。
その結果,ゲーミフィケーション要素の高利用性と肯定的な受容性が示唆された。
論文 参考訳(メタデータ) (2024-03-14T20:11:11Z) - DevBench: A Comprehensive Benchmark for Software Development [72.24266814625685]
DevBenchは、ソフトウェア開発ライフサイクルのさまざまな段階にわたる大規模言語モデル(LLM)を評価するベンチマークである。
GPT-4-Turboを含む現在のLLMは、DevBench内での課題の解決に失敗している。
本研究は,LLMを現実のプログラミングアプリケーションに展開する上で,現実的な知見を提供するものである。
論文 参考訳(メタデータ) (2024-03-13T15:13:44Z) - Observation-based unit test generation at Meta [52.4716552057909]
TestGenは、アプリケーション実行中に観察された複雑なオブジェクトのシリアライズされた観察から作られたユニットテストを自動的に生成する。
TestGenは518のテストを本番環境に投入し、継続的統合で9,617,349回実行され、5,702の障害が見つかった。
評価の結果,信頼性の高い4,361のエンドツーエンドテストから,少なくとも86%のクラスでテストを生成することができた。
論文 参考訳(メタデータ) (2024-02-09T00:34:39Z) - Software Testing and Code Refactoring: A Survey with Practitioners [3.977213079821398]
本研究の目的は,ソフトウェアテストのコンテキストにおいて,このプラクティスのメリットと限界を理解するために,ソフトウェアテスト専門家がコードを扱う方法を検討することである。
ソフトウェアテストの文脈では、自動テストのメンテナンスのサポートや、テストチームのパフォーマンス向上など、いくつかのメリットがある、と私たちは結論付けました。
本研究は,テスト専門家が自動テストのコードに実装することの重要性について議論し,コーディング能力の向上を可能にするものである。
論文 参考訳(メタデータ) (2023-10-03T01:07:39Z) - Towards Informed Design and Validation Assistance in Computer Games
Using Imitation Learning [65.12226891589592]
本稿では,自動ゲーム検証とテストのための新しいアプローチを提案する。
本手法は,データ駆動型模倣学習技術を活用し,時間と労力をほとんど必要とせず,機械学習やプログラミングの知識も必要としない。
論文 参考訳(メタデータ) (2022-08-15T11:08:44Z) - Fairness Testing: A Comprehensive Survey and Analysis of Trends [30.637712832450525]
機械学習(ML)ソフトウェアの不公平な振る舞いは、ソフトウェアエンジニアの間で注目と関心が高まっている。
本稿では,本分野における既存研究を包括的に調査する。
論文 参考訳(メタデータ) (2022-07-20T22:41:38Z) - SUPERNOVA: Automating Test Selection and Defect Prevention in AAA Video
Games Using Risk Based Testing and Machine Learning [62.997667081978825]
従来の手法では、成長するソフトウェアシステムではスケールできないため、ビデオゲームのテストはますます難しいタスクになります。
自動化ハブとして機能しながら,テスト選択と欠陥防止を行うシステム SUPERNOVA を提案する。
この直接的な影響は、未公表のスポーツゲームタイトルの55%以上のテスト時間を減らすことが観察されている。
論文 参考訳(メタデータ) (2022-03-10T00:47:46Z) - Automated Support for Unit Test Generation: A Tutorial Book Chapter [21.716667622896193]
単体テストは、システムの他の部分と独立してテストできる最小のコードセグメントをテストする段階である。
単体テストは通常実行可能なコードとして書かれ、Pythonのpytestのような単体テストフレームワークが提供する形式で書かれる。
本章では,検索に基づく単体テスト生成の概念を紹介する。
論文 参考訳(メタデータ) (2021-10-26T11:13:40Z) - Beyond Accuracy: Behavioral Testing of NLP models with CheckList [66.42971817954806]
CheckList は NLP モデルをテストするためのタスクに依存しない方法論である。
CheckListには、包括的なテストのアイデアを促進する一般的な言語機能とテストタイプのマトリックスが含まれている。
ユーザスタディでは、CheckListのNLP実践者が2倍の数のテストを作成し、それのないユーザの約3倍のバグを発見しました。
論文 参考訳(メタデータ) (2020-05-08T15:48:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。