論文の概要: Insights from the Field: Exploring Students' Perspectives on Bad Unit Testing Practices
- arxiv url: http://arxiv.org/abs/2404.10185v1
- Date: Mon, 15 Apr 2024 23:54:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-17 18:31:57.317746
- Title: Insights from the Field: Exploring Students' Perspectives on Bad Unit Testing Practices
- Title(参考訳): 現場からの洞察: 悪い単体テスト実践に対する学生の視点を探る
- Authors: Anthony Peruma, Eman Abdullah AlOmar, Wajdi Aljedaani, Christian D. Newman, Mohamed Wiem Mkaouer,
- Abstract要約: 学生は必然的に、確立した単体テストのベストプラクティスから逸脱し、問題のあるコードをテストスイートに導入するかもしれません。
学生は、プラグインがテストの匂いを学習し、検出するのに役立つことを報告し、また、彼らが無害と考える特定のテストの匂いも特定する。
本研究の成果は, 単体テストにおけるカリキュラムの修了における学力向上と, テストコードのコードレビュー戦略を学生に提供できることを期待する。
- 参考スコア(独自算出の注目度): 16.674156958233855
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Educating students about software testing practices is integral to the curricula of many computer science-related courses and typically involves students writing unit tests. Similar to production/source code, students might inadvertently deviate from established unit testing best practices, and introduce problematic code, referred to as test smells, into their test suites. Given the extensive catalog of test smells, it becomes challenging for students to identify test smells in their code, especially for those who lack experience with testing practices. In this experience report, we aim to increase students' awareness of bad unit testing practices, and detail the outcomes of having 184 students from three higher educational institutes utilize an IDE plugin to automatically detect test smells in their code. Our findings show that while students report on the plugin's usefulness in learning about and detecting test smells, they also identify specific test smells that they consider harmless. We anticipate that our findings will support academia in refining course curricula on unit testing and enabling educators to support students with code review strategies of test code.
- Abstract(参考訳): ソフトウェアテストの実践について学生を教育することは、多くのコンピュータサイエンス関連のコースのカリキュラムに不可欠なものであり、通常は学生が単体テストを書くことを含んでいる。
実運用コードやソースコードと同じように、学生は必然的に確立された単体テストのベストプラクティスから逸脱し、テストの臭いと呼ばれる問題のあるコードをテストスイートに導入する。
テストの臭いの広範なカタログを考えると、学生がコード中のテストの臭いを識別することは難しくなります。
本経験報告では,3つの高等教育機関から184人の学生が,コード中のテストの臭いを自動的に検出するIDEプラグインを用いて,学生の悪いユニットテスト実践に対する意識を高めることを目的としている。
本研究は, 学生がテスト臭を学習し, 検出する上でのプラグインの有用性について報告する一方で, 無害とみなす特定のテスト臭を識別することを示した。
本研究の成果は, 単体テストにおけるカリキュラムの修了における学力向上と, テストコードのコードレビュー戦略を学生に提供できることを期待する。
関連論文リスト
- GPT-HateCheck: Can LLMs Write Better Functional Tests for Hate Speech
Detection? [55.20381279291041]
HateCheckは、合成データに対してきめ細かいモデル機能をテストするスイートである。
GPT-HateCheckは,スクラッチからより多彩で現実的な機能テストを生成するフレームワークである。
クラウドソースのアノテーションは、生成されたテストケースが高品質であることを示しています。
論文 参考訳(メタデータ) (2024-02-23T10:02:01Z) - Using Large Language Models for Student-Code Guided Test Case Generation
in Computer Science Education [2.5382095320488665]
テストケースは、コンピュータサイエンス教育におけるプログラミング課題の不可欠な部分である。
テストケースは、学生のプログラミング知識をテストし、学生が書いたコードに対してパーソナライズされたフィードバックを提供するための評価項目として使用することができる。
テストケースを自動的に生成する大規模言語モデルに基づくアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-11T01:37:48Z) - Observation-based unit test generation at Meta [52.4716552057909]
TestGenは、アプリケーション実行中に観察された複雑なオブジェクトのシリアライズされた観察から作られたユニットテストを自動的に生成する。
TestGenは518のテストを本番環境に投入し、継続的統合で9,617,349回実行され、5,702の障害が見つかった。
評価の結果,信頼性の高い4,361のエンドツーエンドテストから,少なくとも86%のクラスでテストを生成することができた。
論文 参考訳(メタデータ) (2024-02-09T00:34:39Z) - Generating and Evaluating Tests for K-12 Students with Language Model
Simulations: A Case Study on Sentence Reading Efficiency [45.6224547703717]
本研究は,学生の読解能力の経時的評価に用いるサイレント文読解効率の試験に焦点を当てた。
本研究では,従来の学生が未確認項目に対してどのように反応したかをシミュレートするために,大規模言語モデル(LLM)を微調整することを提案する。
生成したテストは,クラウドワーカーの反応に基づいて,元のテストの難易度と信頼性に密接に対応していることを示す。
論文 参考訳(メタデータ) (2023-10-10T17:59:51Z) - Unit Testing Challenges with Automated Marking [4.56877715768796]
我々は,EdStemプラットフォームによる学習ツールとして,自動マーキングによるオンライン単体テストの課題を紹介した。
92名の参加者から,我々の単体テストの課題は,学生の参加とモチベーションを高めていることが示された。
これらの結果から,自動マーキングによるオンライン単体テストの課題が学生の学習体験全体を改善することが示唆された。
論文 参考訳(メタデータ) (2023-10-10T04:52:44Z) - Prompting Code Interpreter to Write Better Unit Tests on Quixbugs
Functions [0.05657375260432172]
単体テストは、ソフトウェア工学において、記述されたコードの正確性と堅牢性をテストするために一般的に使用されるアプローチである。
本研究では,コードインタプリタが生成する単体テストの品質に及ぼす異なるプロンプトの影響について検討する。
生成した単体テストの品質は、提供されたプロンプトのマイナーな詳細の変更に敏感ではないことがわかった。
論文 参考訳(メタデータ) (2023-09-30T20:36:23Z) - Active Teacher for Semi-Supervised Object Detection [80.10937030195228]
半教師対象検出(SSOD)のための能動教師と呼ばれる新しいアルゴリズムを提案する。
Active Teacherは、教師/学生のフレームワークを反復的なバージョンに拡張し、ラベルセットを部分的に段階的に拡張し、ラベルなし例の3つの重要な要素を評価する。
この設計により、Active Teacherは、擬似ラベルの品質を改善しながら、限られたラベル情報の効果を最大化することができる。
論文 参考訳(メタデータ) (2023-03-15T03:59:27Z) - Automated Support for Unit Test Generation: A Tutorial Book Chapter [21.716667622896193]
単体テストは、システムの他の部分と独立してテストできる最小のコードセグメントをテストする段階である。
単体テストは通常実行可能なコードとして書かれ、Pythonのpytestのような単体テストフレームワークが提供する形式で書かれる。
本章では,検索に基づく単体テスト生成の概念を紹介する。
論文 参考訳(メタデータ) (2021-10-26T11:13:40Z) - ProtoTransformer: A Meta-Learning Approach to Providing Student Feedback [54.142719510638614]
本稿では,フィードバックを数発の分類として提供するという課題について考察する。
メタラーナーは、インストラクターによるいくつかの例から、新しいプログラミング質問に関する学生のコードにフィードバックを与えるように適応します。
本手法は,第1段階の大学が提供したプログラムコースにおいて,16,000名の学生試験ソリューションに対するフィードバックの提供に成功している。
論文 参考訳(メタデータ) (2021-07-23T22:41:28Z) - How do students test software units? [3.6748639131154315]
私たちは学生に、小さな調査に記入し、4回の演習を行い、2回目の調査に記入するように頼みました。
半構造化インタビューで11人の学生にインタビューを行い、より深い洞察を得た。
私たちが見いだした誤解の1つは、ほとんどの学生は、プログラミングコードに基づいてテストケースしか考えられないということです。
たとえコードが提供されていなくても(ブラックボックステスト)、学生はテストケースをベースとするコードを考え出そうとします。
論文 参考訳(メタデータ) (2021-02-16T07:02:59Z) - Beyond Accuracy: Behavioral Testing of NLP models with CheckList [66.42971817954806]
CheckList は NLP モデルをテストするためのタスクに依存しない方法論である。
CheckListには、包括的なテストのアイデアを促進する一般的な言語機能とテストタイプのマトリックスが含まれている。
ユーザスタディでは、CheckListのNLP実践者が2倍の数のテストを作成し、それのないユーザの約3倍のバグを発見しました。
論文 参考訳(メタデータ) (2020-05-08T15:48:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。