論文の概要: Insights from the Field: Exploring Students' Perspectives on Bad Unit Testing Practices
- arxiv url: http://arxiv.org/abs/2404.10185v1
- Date: Mon, 15 Apr 2024 23:54:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-17 18:31:57.317746
- Title: Insights from the Field: Exploring Students' Perspectives on Bad Unit Testing Practices
- Title(参考訳): 現場からの洞察: 悪い単体テスト実践に対する学生の視点を探る
- Authors: Anthony Peruma, Eman Abdullah AlOmar, Wajdi Aljedaani, Christian D. Newman, Mohamed Wiem Mkaouer,
- Abstract要約: 学生は必然的に、確立した単体テストのベストプラクティスから逸脱し、問題のあるコードをテストスイートに導入するかもしれません。
学生は、プラグインがテストの匂いを学習し、検出するのに役立つことを報告し、また、彼らが無害と考える特定のテストの匂いも特定する。
本研究の成果は, 単体テストにおけるカリキュラムの修了における学力向上と, テストコードのコードレビュー戦略を学生に提供できることを期待する。
- 参考スコア(独自算出の注目度): 16.674156958233855
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Educating students about software testing practices is integral to the curricula of many computer science-related courses and typically involves students writing unit tests. Similar to production/source code, students might inadvertently deviate from established unit testing best practices, and introduce problematic code, referred to as test smells, into their test suites. Given the extensive catalog of test smells, it becomes challenging for students to identify test smells in their code, especially for those who lack experience with testing practices. In this experience report, we aim to increase students' awareness of bad unit testing practices, and detail the outcomes of having 184 students from three higher educational institutes utilize an IDE plugin to automatically detect test smells in their code. Our findings show that while students report on the plugin's usefulness in learning about and detecting test smells, they also identify specific test smells that they consider harmless. We anticipate that our findings will support academia in refining course curricula on unit testing and enabling educators to support students with code review strategies of test code.
- Abstract(参考訳): ソフトウェアテストの実践について学生を教育することは、多くのコンピュータサイエンス関連のコースのカリキュラムに不可欠なものであり、通常は学生が単体テストを書くことを含んでいる。
実運用コードやソースコードと同じように、学生は必然的に確立された単体テストのベストプラクティスから逸脱し、テストの臭いと呼ばれる問題のあるコードをテストスイートに導入する。
テストの臭いの広範なカタログを考えると、学生がコード中のテストの臭いを識別することは難しくなります。
本経験報告では,3つの高等教育機関から184人の学生が,コード中のテストの臭いを自動的に検出するIDEプラグインを用いて,学生の悪いユニットテスト実践に対する意識を高めることを目的としている。
本研究は, 学生がテスト臭を学習し, 検出する上でのプラグインの有用性について報告する一方で, 無害とみなす特定のテスト臭を識別することを示した。
本研究の成果は, 単体テストにおけるカリキュラムの修了における学力向上と, テストコードのコードレビュー戦略を学生に提供できることを期待する。
関連論文リスト
- A Block-Based Testing Framework for Scratch [9.390562437823078]
自動テストの作成を可能にするブロックのカテゴリをScratchに導入する。
これらのブロックによって、学生や教師もテストを作成し、Scratch環境内で直接フィードバックを受け取ることができる。
論文 参考訳(メタデータ) (2024-10-11T14:11:26Z) - Do Test and Environmental Complexity Increase Flakiness? An Empirical Study of SAP HANA [47.29324864511411]
不安定なテストはコードの変更なしにランダムに失敗する。
テストの特徴と,テストのフレキネスに影響を与える可能性のあるテスト環境について検討する。
論文 参考訳(メタデータ) (2024-09-16T07:52:09Z) - Leveraging Large Language Models for Enhancing the Understandability of Generated Unit Tests [4.574205608859157]
我々は,検索ベースのソフトウェアテストと大規模言語モデルを組み合わせたUTGenを導入し,自動生成テストケースの理解性を向上する。
UTGenテストケースで課題に取り組む参加者は、最大33%のバグを修正し、ベースラインテストケースと比較して最大20%の時間を使用できます。
論文 参考訳(メタデータ) (2024-08-21T15:35:34Z) - Observation-based unit test generation at Meta [52.4716552057909]
TestGenは、アプリケーション実行中に観察された複雑なオブジェクトのシリアライズされた観察から作られたユニットテストを自動的に生成する。
TestGenは518のテストを本番環境に投入し、継続的統合で9,617,349回実行され、5,702の障害が見つかった。
評価の結果,信頼性の高い4,361のエンドツーエンドテストから,少なくとも86%のクラスでテストを生成することができた。
論文 参考訳(メタデータ) (2024-02-09T00:34:39Z) - Generating and Evaluating Tests for K-12 Students with Language Model
Simulations: A Case Study on Sentence Reading Efficiency [45.6224547703717]
本研究は,学生の読解能力の経時的評価に用いるサイレント文読解効率の試験に焦点を当てた。
本研究では,従来の学生が未確認項目に対してどのように反応したかをシミュレートするために,大規模言語モデル(LLM)を微調整することを提案する。
生成したテストは,クラウドワーカーの反応に基づいて,元のテストの難易度と信頼性に密接に対応していることを示す。
論文 参考訳(メタデータ) (2023-10-10T17:59:51Z) - Unit Testing Challenges with Automated Marking [4.56877715768796]
我々は,EdStemプラットフォームによる学習ツールとして,自動マーキングによるオンライン単体テストの課題を紹介した。
92名の参加者から,我々の単体テストの課題は,学生の参加とモチベーションを高めていることが示された。
これらの結果から,自動マーキングによるオンライン単体テストの課題が学生の学習体験全体を改善することが示唆された。
論文 参考訳(メタデータ) (2023-10-10T04:52:44Z) - Prompting Code Interpreter to Write Better Unit Tests on Quixbugs
Functions [0.05657375260432172]
単体テストは、ソフトウェア工学において、記述されたコードの正確性と堅牢性をテストするために一般的に使用されるアプローチである。
本研究では,コードインタプリタが生成する単体テストの品質に及ぼす異なるプロンプトの影響について検討する。
生成した単体テストの品質は、提供されたプロンプトのマイナーな詳細の変更に敏感ではないことがわかった。
論文 参考訳(メタデータ) (2023-09-30T20:36:23Z) - Active Teacher for Semi-Supervised Object Detection [80.10937030195228]
半教師対象検出(SSOD)のための能動教師と呼ばれる新しいアルゴリズムを提案する。
Active Teacherは、教師/学生のフレームワークを反復的なバージョンに拡張し、ラベルセットを部分的に段階的に拡張し、ラベルなし例の3つの重要な要素を評価する。
この設計により、Active Teacherは、擬似ラベルの品質を改善しながら、限られたラベル情報の効果を最大化することができる。
論文 参考訳(メタデータ) (2023-03-15T03:59:27Z) - ProtoTransformer: A Meta-Learning Approach to Providing Student Feedback [54.142719510638614]
本稿では,フィードバックを数発の分類として提供するという課題について考察する。
メタラーナーは、インストラクターによるいくつかの例から、新しいプログラミング質問に関する学生のコードにフィードバックを与えるように適応します。
本手法は,第1段階の大学が提供したプログラムコースにおいて,16,000名の学生試験ソリューションに対するフィードバックの提供に成功している。
論文 参考訳(メタデータ) (2021-07-23T22:41:28Z) - How do students test software units? [3.6748639131154315]
私たちは学生に、小さな調査に記入し、4回の演習を行い、2回目の調査に記入するように頼みました。
半構造化インタビューで11人の学生にインタビューを行い、より深い洞察を得た。
私たちが見いだした誤解の1つは、ほとんどの学生は、プログラミングコードに基づいてテストケースしか考えられないということです。
たとえコードが提供されていなくても(ブラックボックステスト)、学生はテストケースをベースとするコードを考え出そうとします。
論文 参考訳(メタデータ) (2021-02-16T07:02:59Z) - Beyond Accuracy: Behavioral Testing of NLP models with CheckList [66.42971817954806]
CheckList は NLP モデルをテストするためのタスクに依存しない方法論である。
CheckListには、包括的なテストのアイデアを促進する一般的な言語機能とテストタイプのマトリックスが含まれている。
ユーザスタディでは、CheckListのNLP実践者が2倍の数のテストを作成し、それのないユーザの約3倍のバグを発見しました。
論文 参考訳(メタデータ) (2020-05-08T15:48:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。