論文の概要: A Block-Based Testing Framework for Scratch
- arxiv url: http://arxiv.org/abs/2410.08835v1
- Date: Fri, 11 Oct 2024 14:11:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-30 21:45:38.119883
- Title: A Block-Based Testing Framework for Scratch
- Title(参考訳): Scratchのためのブロックベースのテスティングフレームワーク
- Authors: Patric Feldmeier, Gordon Fraser, Ute Heuer, Florian Obermüller, Siegfried Steckenbiller,
- Abstract要約: 自動テストの作成を可能にするブロックのカテゴリをScratchに導入する。
これらのブロックによって、学生や教師もテストを作成し、Scratch環境内で直接フィードバックを受け取ることができる。
- 参考スコア(独自算出の注目度): 9.390562437823078
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Block-based programming environments like Scratch are widely used in introductory programming courses. They facilitate learning pivotal programming concepts by eliminating syntactical errors, but logical errors that break the desired program behaviour are nevertheless possible. Finding such errors requires testing, i.e., running the program and checking its behaviour. In many programming environments, this step can be automated by providing executable tests as code; in Scratch, testing can only be done manually by invoking events through user input and observing the rendered stage. While this is arguably sufficient for learners, the lack of automated testing may be inhibitive for teachers wishing to provide feedback on their students' solutions. In order to address this issue, we introduce a new category of blocks in Scratch that enables the creation of automated tests. With these blocks, students and teachers alike can create tests and receive feedback directly within the Scratch environment using familiar block-based programming logic. To facilitate the creation and to enable batch processing sets of student solutions, we extend the Scratch user interface with an accompanying test interface. We evaluated this testing framework with 28 teachers who created tests for a popular Scratch game and subsequently used these tests to assess and provide feedback on student implementations. An overall accuracy of 0.93 of teachers' tests compared to manually evaluating the functionality of 21 student solutions demonstrates that teachers are able to create and effectively use tests. A subsequent survey confirms that teachers consider the block-based test approach useful.
- Abstract(参考訳): Scratchのようなブロックベースのプログラミング環境は、入門プログラミングコースで広く使われている。
構文上のエラーをなくすことで、重要なプログラミング概念の学習を容易にするが、望ましいプログラムの振る舞いを損なう論理的エラーは、それでも可能である。
このようなエラーを見つけるには、テスト、すなわちプログラムを実行して動作をチェックする必要がある。
多くのプログラミング環境では、このステップはコードとして実行可能なテストを提供することで自動化することができる。
これは学習者にとって十分であることは間違いないが、自動テストの欠如は、生徒のソリューションに対するフィードバックを希望する教師にとって阻害される可能性がある。
この問題に対処するために、自動テストの作成を可能にするブロックのカテゴリをScratchに導入する。
これらのブロックによって、学生や教師も、よく知られたブロックベースのプログラミングロジックを使用して、テストを作成し、Scratch環境から直接フィードバックを受け取ることができる。
学生ソリューションの作成を容易にし、バッチ処理を可能にするため、Scratchユーザインタフェースをテストインターフェースに付随させて拡張する。
このテストフレームワークを、人気のあるScratchゲーム用のテストを作成した28人の教師を対象に評価し、その後、これらのテストを用いて学生実装の評価とフィードバックを行った。
21人の生徒ソリューションの機能を手作業で評価するよりも、総合的な精度は0.93であり、教師がテストを作成し、効果的に利用できることが示されている。
その後の調査では、教師はブロックベースのテストアプローチが有用であると考えている。
関連論文リスト
- Leveraging Large Language Models for Enhancing the Understandability of Generated Unit Tests [4.574205608859157]
我々は,検索ベースのソフトウェアテストと大規模言語モデルを組み合わせたUTGenを導入し,自動生成テストケースの理解性を向上する。
UTGenテストケースで課題に取り組む参加者は、最大33%のバグを修正し、ベースラインテストケースと比較して最大20%の時間を使用できます。
論文 参考訳(メタデータ) (2024-08-21T15:35:34Z) - Stepwise Verification and Remediation of Student Reasoning Errors with Large Language Model Tutors [78.53699244846285]
大規模言語モデル(LLM)は、高品質なパーソナライズされた教育を全員に拡大する機会を提供する。
LLMは、学生のエラーを正確に検知し、これらのエラーに対するフィードバックを調整するのに苦労する。
教師が学生の誤りを識別し、それに基づいて回答をカスタマイズする現実世界の教育実践に触発され、我々は学生ソリューションの検証に焦点をあてる。
論文 参考訳(メタデータ) (2024-07-12T10:11:40Z) - LLM Critics Help Catch Bugs in Mathematics: Towards a Better Mathematical Verifier with Natural Language Feedback [71.95402654982095]
本研究では,自然言語フィードバック型検証器Math-Minosを提案する。
実験の結果,少量の自然言語フィードバックが検証器の性能を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-06-20T06:42:27Z) - Insights from the Field: Exploring Students' Perspectives on Bad Unit Testing Practices [16.674156958233855]
学生は必然的に、確立した単体テストのベストプラクティスから逸脱し、問題のあるコードをテストスイートに導入するかもしれません。
学生は、プラグインがテストの匂いを学習し、検出するのに役立つことを報告し、また、彼らが無害と考える特定のテストの匂いも特定する。
本研究の成果は, 単体テストにおけるカリキュラムの修了における学力向上と, テストコードのコードレビュー戦略を学生に提供できることを期待する。
論文 参考訳(メタデータ) (2024-04-15T23:54:45Z) - Using Large Language Models for Student-Code Guided Test Case Generation
in Computer Science Education [2.5382095320488665]
テストケースは、コンピュータサイエンス教育におけるプログラミング課題の不可欠な部分である。
テストケースは、学生のプログラミング知識をテストし、学生が書いたコードに対してパーソナライズされたフィードバックを提供するための評価項目として使用することができる。
テストケースを自動的に生成する大規模言語モデルに基づくアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-11T01:37:48Z) - A Static Evaluation of Code Completion by Large Language Models [65.18008807383816]
単純なプログラミング問題に対するモデル生成コードの機能的正当性を評価するために,実行ベースベンチマークが提案されている。
プログラムを実行せずにエラーを検出するlinterのような静的解析ツールは、コード生成モデルを評価するために十分に研究されていない。
抽象構文木を利用して,Pythonのコード補完における静的エラーを定量化する静的評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-05T19:23:34Z) - Giving Feedback on Interactive Student Programs with Meta-Exploration [74.5597783609281]
ウェブサイトやゲームのようなインタラクティブなソフトウェアを開発することは、特にコンピュータ科学を学ぶための魅力的な方法である。
標準的アプローチでは、インストラクターは、学生が実装した対話型プログラムを手動で評価する必要がある。
Code.orgのような何百万ものオンラインプラットフォームは、インタラクティブなプログラムを実装するための代入に関するフィードバックを提供することができない。
論文 参考訳(メタデータ) (2022-11-16T10:00:23Z) - Towards Informed Design and Validation Assistance in Computer Games
Using Imitation Learning [65.12226891589592]
本稿では,自動ゲーム検証とテストのための新しいアプローチを提案する。
本手法は,データ駆動型模倣学習技術を活用し,時間と労力をほとんど必要とせず,機械学習やプログラミングの知識も必要としない。
論文 参考訳(メタデータ) (2022-08-15T11:08:44Z) - ProtoTransformer: A Meta-Learning Approach to Providing Student Feedback [54.142719510638614]
本稿では,フィードバックを数発の分類として提供するという課題について考察する。
メタラーナーは、インストラクターによるいくつかの例から、新しいプログラミング質問に関する学生のコードにフィードバックを与えるように適応します。
本手法は,第1段階の大学が提供したプログラムコースにおいて,16,000名の学生試験ソリューションに対するフィードバックの提供に成功している。
論文 参考訳(メタデータ) (2021-07-23T22:41:28Z) - Learning by Passing Tests, with Application to Neural Architecture
Search [19.33620150924791]
そこで我々は,受験による学習という新しい学習手法を提案する。
テスターモデルは、学習者モデルを評価するために、ますます難しいテストを生成します。
学習者は、継続的に学習能力を改善して、テスターが作成した難しいテストに合格できるようにしようとする。
論文 参考訳(メタデータ) (2020-11-30T18:33:34Z) - Smoke Testing for Machine Learning: Simple Tests to Discover Severe
Defects [7.081604594416339]
我々は、基本的な関数がクラッシュすることなく実行できると主張するのに使用できる、汎用的で単純な煙テストを決定することを試みる。
テストした3つの機械学習ライブラリすべてにバグがあり、3つのライブラリのうち2つに深刻なバグがありました。
論文 参考訳(メタデータ) (2020-09-03T08:54:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。