論文の概要: Enhancing Software Testing Education: Understanding Where Students Struggle
- arxiv url: http://arxiv.org/abs/2510.00957v1
- Date: Wed, 01 Oct 2025 14:30:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.609687
- Title: Enhancing Software Testing Education: Understanding Where Students Struggle
- Title(参考訳): ソフトウェアテスティング教育の強化 - 学生のゆるやかさを理解する
- Authors: Shiza Andleeb, Teo Mendoza, Lucas Cordova, Gursimran Walia, Jeffrey C. Carver,
- Abstract要約: 本研究は,学生が非効率な変化を起こすための具体的なテスト概念について検討する。
本研究では,2つの課題から学生が提出した課題を解析し,非生産的修正の一般的な概念的ギャップとパターンを同定した。
- 参考スコア(独自算出の注目度): 0.5447924312563365
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Effective software testing is critical for producing reliable and secure software, yet many computer science students struggle to master the foundational concepts required to construct comprehensive test suites. While automated feedback tools are widely used to support student learning, it remains unclear which testing concepts are most frequently misunderstood and how these misunderstandings are reflected in students' test suite revisions. This study examines the specific testing concepts that lead students to make ineffective changes, those that fail to improve code coverage, during test suite development. Leveraging an automated feedback tool in a senior-level software testing course, we analyzed student submissions from two assignments to identify prevalent conceptual gaps and patterns of unproductive modification. Our results reveal that decision coverage and exception handling are persistent challenges, and that students most often make superficial or method-level changes that do not enhance coverage. These findings provide actionable insights for educators, researchers, and tool designers. By pinpointing the concepts that most often contribute to poor testing outcomes, we can refine feedback systems, target instruction to address persistent misconceptions, and more effectively support students in developing robust, maintainable test suites.
- Abstract(参考訳): 効果的なソフトウェアテストは信頼性が高くセキュアなソフトウェアを作成するために重要であるが、多くのコンピュータサイエンスの学生は包括的なテストスイートを構築するのに必要な基礎概念を習得するのに苦労している。
自動フィードバックツールは、学生の学習を支援するために広く使われているが、どのテスト概念が最も誤解されているか、これらの誤解が学生のテストスイートの改訂にどのように反映されているかは、いまだ不明である。
本研究は,テストスイート開発において,学生が非効率な変更を行うための具体的なテスト概念,コードカバレッジの改善に失敗したテストについて検討する。
上級レベルのソフトウェアテストコースで自動フィードバックツールを活用することで、2つの課題から学生が提出した課題を分析し、一般的な概念的ギャップと非生産的修正のパターンを特定した。
その結果,決定カバレッジと例外ハンドリングは永続的な課題であり,生徒は表層的・方法的な変化がほとんどであり,カバレッジは向上しないことが明らかとなった。
これらの発見は、教育者、研究者、ツールデザイナーに実用的な洞察を与える。
テスト結果の貧弱さに最も寄与する概念を指摘することによって、フィードバックシステムを洗練し、永続的な誤解に対処するための指示をターゲットとし、より効果的に、堅牢で保守可能なテストスイートを開発する学生を支援することができる。
関連論文リスト
- Existing Large Language Model Unlearning Evaluations Are Inconclusive [105.55899615056573]
いくつかの評価では、モデルにかなりの新しい情報を導入し、真の未学習のパフォーマンスを隠蔽する可能性があることを示す。
評価結果はタスクによって大きく異なることを示し、現在の評価ルーチンの一般化性を損なうことを示した。
今後の未学習評価には,情報注入の最小化とタスク認識のダウンストリームという2つの原則を提案する。
論文 参考訳(メタデータ) (2025-05-31T19:43:00Z) - PyEvalAI: AI-assisted evaluation of Jupyter Notebooks for immediate personalized feedback [43.56788158589046]
PyEvalAIは、プライバシを保護するために、ユニットテストとローカルにホストされた言語モデルを組み合わせてJupyterノートをスコアする。
あるケーススタディは、大学レベルの数値科目における演習のフィードバック速度の向上と学習効率の向上に効果を示す。
論文 参考訳(メタデータ) (2025-02-25T18:20:20Z) - Chatbots im Schulunterricht: Wir testen das Fobizz-Tool zur automatischen Bewertung von Hausaufgaben [0.0]
本研究では,ドイツのFobizz社によるAIによるグレーディングツール"AI Grading Assistant"について検討した。
ツールの数値グレードと定性的フィードバックは、しばしばランダムであり、提案が組み込まれても改善されない。
この研究は、教育における体系的な問題に対する迅速な修正としてAIを採用するというより広い傾向を批判している。
論文 参考訳(メタデータ) (2024-12-09T16:50:02Z) - A Feedback Toolkit and Procedural Guidance for Teaching Thorough Testing [0.7829352305480285]
正確性は質的なソフトウェアにおいて最も重要な基準の1つである。
課題に規定がない限り、学生はコード品質とテストに対する十分なフィードバックを受けられません。
我々は,学生を適切なテストで実施するための手続き的指導を開発した。
論文 参考訳(メタデータ) (2024-11-30T10:02:57Z) - Stepwise Verification and Remediation of Student Reasoning Errors with Large Language Model Tutors [78.53699244846285]
大規模言語モデル(LLM)は、高品質なパーソナライズされた教育を全員に拡大する機会を提供する。
LLMは、学生のエラーを正確に検知し、これらのエラーに対するフィードバックを調整するのに苦労する。
教師が学生の誤りを識別し、それに基づいて回答をカスタマイズする現実世界の教育実践に触発され、我々は学生ソリューションの検証に焦点をあてる。
論文 参考訳(メタデータ) (2024-07-12T10:11:40Z) - Unit Testing Challenges with Automated Marking [4.56877715768796]
我々は,EdStemプラットフォームによる学習ツールとして,自動マーキングによるオンライン単体テストの課題を紹介した。
92名の参加者から,我々の単体テストの課題は,学生の参加とモチベーションを高めていることが示された。
これらの結果から,自動マーキングによるオンライン単体テストの課題が学生の学習体験全体を改善することが示唆された。
論文 参考訳(メタデータ) (2023-10-10T04:52:44Z) - Automated Distractor and Feedback Generation for Math Multiple-choice
Questions via In-context Learning [43.83422798569986]
マルチチョイス質問(MCQ)は、管理しやすく、格付けし、信頼性の高い評価形式であるため、ほぼ全てのレベルの教育においてユビキタスである。
これまで、高品質なイントラクタを作るというタスクは、教師やコンテンツデザイナーを学ぶための労働集約的なプロセスのままだった。
本稿では,テキスト内学習をベースとした簡易な学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-07T01:03:04Z) - Towards Informed Design and Validation Assistance in Computer Games
Using Imitation Learning [65.12226891589592]
本稿では,自動ゲーム検証とテストのための新しいアプローチを提案する。
本手法は,データ駆動型模倣学習技術を活用し,時間と労力をほとんど必要とせず,機械学習やプログラミングの知識も必要としない。
論文 参考訳(メタデータ) (2022-08-15T11:08:44Z) - ProtoTransformer: A Meta-Learning Approach to Providing Student Feedback [54.142719510638614]
本稿では,フィードバックを数発の分類として提供するという課題について考察する。
メタラーナーは、インストラクターによるいくつかの例から、新しいプログラミング質問に関する学生のコードにフィードバックを与えるように適応します。
本手法は,第1段階の大学が提供したプログラムコースにおいて,16,000名の学生試験ソリューションに対するフィードバックの提供に成功している。
論文 参考訳(メタデータ) (2021-07-23T22:41:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。