論文の概要: How do students test software units?
- arxiv url: http://arxiv.org/abs/2102.09368v1
- Date: Tue, 16 Feb 2021 07:02:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-10 23:46:14.716717
- Title: How do students test software units?
- Title(参考訳): 学生はどのようにソフトウェアユニットをテストするのか?
- Authors: Lex Bijlsma, Niels Doorn, Harrie Passier, Harold Pootjes, Sylvia
Stuurman
- Abstract要約: 私たちは学生に、小さな調査に記入し、4回の演習を行い、2回目の調査に記入するように頼みました。
半構造化インタビューで11人の学生にインタビューを行い、より深い洞察を得た。
私たちが見いだした誤解の1つは、ほとんどの学生は、プログラミングコードに基づいてテストケースしか考えられないということです。
たとえコードが提供されていなくても(ブラックボックステスト)、学生はテストケースをベースとするコードを考え出そうとします。
- 参考スコア(独自算出の注目度): 3.6748639131154315
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We gained insight into ideas and beliefs on testing of students who finished
an introductory course on programming without any formal education on testing.
We asked students to fill in a small survey, to do four exercises and to fill
in a second survey. We interviewed eleven of these students in semi-structured
interviews, to obtain more in-depth insight. The main outcome is that students
do not test systematically, while most of them think they do test
systematically. One of the misconceptions we found is that most students can
only think of test cases based on programming code. Even if no code was
provided (black-box testing), students try to come up with code to base their
test cases on.
- Abstract(参考訳): テストの正式な教育を受けずにプログラミング入門コースを修了した学生のアイデアや信念について見識を得た。
学生に小さな調査に記入し、4つのエクササイズを行い、2つ目の調査に記入するよう求めた。
これらの学生の11人に半構造化インタビューを行い、より深い洞察を得た。
主な成果は、学生は体系的にテストしないが、ほとんどの学生は体系的にテストすると考えている。
私たちが見出した誤解の1つは、ほとんどの学生がプログラミングコードに基づいてテストケースしか考えられないということです。
たとえコードが提供されていなくても(ブラックボックステスト)、学生はテストケースをベースとするコードを考え出そうとします。
関連論文リスト
- Using Large Language Models for Student-Code Guided Test Case Generation
in Computer Science Education [2.5382095320488665]
テストケースは、コンピュータサイエンス教育におけるプログラミング課題の不可欠な部分である。
テストケースは、学生のプログラミング知識をテストし、学生が書いたコードに対してパーソナライズされたフィードバックを提供するための評価項目として使用することができる。
テストケースを自動的に生成する大規模言語モデルに基づくアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-11T01:37:48Z) - Generating and Evaluating Tests for K-12 Students with Language Model
Simulations: A Case Study on Sentence Reading Efficiency [45.6224547703717]
本研究は,学生の読解能力の経時的評価に用いるサイレント文読解効率の試験に焦点を当てた。
本研究では,従来の学生が未確認項目に対してどのように反応したかをシミュレートするために,大規模言語モデル(LLM)を微調整することを提案する。
生成したテストは,クラウドワーカーの反応に基づいて,元のテストの難易度と信頼性に密接に対応していることを示す。
論文 参考訳(メタデータ) (2023-10-10T17:59:51Z) - Test case quality: an empirical study on belief and evidence [8.475270520855332]
良好なテストケースを構成するものについて,8つの仮説を考察する。
最善を尽くしたにも拘わらず、我々はこれらの信念を支持する証拠を見つけることができなかった。
論文 参考訳(メタデータ) (2023-07-12T19:02:48Z) - Learning Deep Semantics for Test Completion [46.842174440120196]
テスト完了の新たなタスクを形式化し、テスト対象の文のコンテキストとコードに基づいて、テストメソッドで次のステートメントを自動的に完了する。
テスト補完にコードセマンティクスを用いたディープラーニングモデルであるTeCoを開発した。
論文 参考訳(メタデータ) (2023-02-20T18:53:56Z) - JiuZhang: A Chinese Pre-trained Language Model for Mathematical Problem
Understanding [74.12405417718054]
本稿では,中国初の数学的事前学習言語モデル(PLM)を提示することにより,機械の数学的知性向上を目指す。
他の標準のNLPタスクとは異なり、数学的テキストは問題文に数学的用語、記号、公式を含むため理解が難しい。
基礎課程と上級課程の両方からなる数学PLMの学習を改善するための新しいカリキュラム事前学習手法を設計する。
論文 参考訳(メタデータ) (2022-06-13T17:03:52Z) - Write a Line: Tests with Answer Templates and String Completion Hints
for Self-Learning in a CS1 Course [0.0]
本報告では,497名の学生を対象に,CS1コースにおける文字列補完ヒント付き正規表現型質問を用いた4年間の成績を報告する。
評価結果から,Perl互換の正規表現は,1行のコードを記述する必要のある質問に対して,良好な精度とリコール(99%以上)を提供することが示された。
論文 参考訳(メタデータ) (2022-04-19T17:53:35Z) - Continuous Examination by Automatic Quiz Assessment Using Spiral Codes
and Image Processing [69.35569554213679]
紙のキズは安価で、教室のキャンパス教育の範囲内にある。
クイズの修正は かなりの障害だ
本稿では,新しい画像処理技術によって問題を緩和することを提案する。
論文 参考訳(メタデータ) (2022-01-26T22:58:15Z) - Automated Support for Unit Test Generation: A Tutorial Book Chapter [21.716667622896193]
単体テストは、システムの他の部分と独立してテストできる最小のコードセグメントをテストする段階である。
単体テストは通常実行可能なコードとして書かれ、Pythonのpytestのような単体テストフレームワークが提供する形式で書かれる。
本章では,検索に基づく単体テスト生成の概念を紹介する。
論文 参考訳(メタデータ) (2021-10-26T11:13:40Z) - ProtoTransformer: A Meta-Learning Approach to Providing Student Feedback [54.142719510638614]
本稿では,フィードバックを数発の分類として提供するという課題について考察する。
メタラーナーは、インストラクターによるいくつかの例から、新しいプログラミング質問に関する学生のコードにフィードバックを与えるように適応します。
本手法は,第1段階の大学が提供したプログラムコースにおいて,16,000名の学生試験ソリューションに対するフィードバックの提供に成功している。
論文 参考訳(メタデータ) (2021-07-23T22:41:28Z) - Measuring Coding Challenge Competence With APPS [54.22600767666257]
コード生成のベンチマークであるAPPSを紹介する。
私たちのベンチマークには1万の問題が含まれています。
GPT-Neoのような最近のモデルでは、導入問題のテストケースの約15%をパスできる。
論文 参考訳(メタデータ) (2021-05-20T17:58:42Z) - Let's Ask Students About Their Programs, Automatically [0.0]
学生は時に機能するコードを生成するが、その作者は理解していない。
これらの問題に対処する方法の1つは、生徒が自分のプログラムについて質問することで、生徒の理解を調査することである。
本稿では,学生が書いたプログラムコードに関する質問を自動的に生成する手法を提案する。
論文 参考訳(メタデータ) (2021-03-20T09:15:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。