論文の概要: Write a Line: Tests with Answer Templates and String Completion Hints
for Self-Learning in a CS1 Course
- arxiv url: http://arxiv.org/abs/2204.09036v1
- Date: Tue, 19 Apr 2022 17:53:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 16:20:48.905048
- Title: Write a Line: Tests with Answer Templates and String Completion Hints
for Self-Learning in a CS1 Course
- Title(参考訳): 行を書く:cs1コースにおける自己学習のための回答テンプレートと文字列補完ヒントによるテスト
- Authors: Oleg Sychev
- Abstract要約: 本報告では,497名の学生を対象に,CS1コースにおける文字列補完ヒント付き正規表現型質問を用いた4年間の成績を報告する。
評価結果から,Perl互換の正規表現は,1行のコードを記述する必要のある質問に対して,良好な精度とリコール(99%以上)を提供することが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: One of the important scaffolding tasks in programming learning is writing a
line of code performing the necessary action. This allows students to practice
skills in a playground with instant feedback before writing more complex
programs and increases their proficiency when solving programming problems.
However, answers in the form of program code have high variability. Among the
possible approaches to grading and providing feedback, we chose template
matching. This paper reports the results of using regular-expression-based
questions with string completion hints in a CS1 course for 4 years with 497
students. The evaluation results show that Perl-compatible regular expressions
provide good precision and recall (more than 99\%) when used for questions
requiring writing a single line of code while being able to provide
string-completion feedback regardless of how wrong the initial student's answer
is. After introducing formative quizzes with string-completion hints to the
course, the number of questions that teachers and teaching assistants received
about questions in the formative quizzes dropped considerably: most of the
training question attempts resulted in finding the correct answer without help
from the teaching staff. However, some of the students use formative quizzes
just to learn correct answers without actually trying to answer the questions.
- Abstract(参考訳): プログラミング学習における重要な足場作業の1つは、必要なアクションを実行するコードの行を書くことである。
これにより、生徒は、より複雑なプログラムを書く前に、即時フィードバックで遊び場でスキルを練習し、プログラミングの問題を解決する能力を高めることができる。
しかし、プログラムコードの形式での解答は、高い可変性を持つ。
グレーディングとフィードバック提供の可能なアプローチの中で、私たちはテンプレートマッチングを選択しました。
本報告では,497名の学生を対象に,CS1コースにおける文字列補完ヒント付き正規表現型質問を用いた4年間の成績を報告する。
評価の結果、perl互換正規表現は、最初の学生の回答がどれほど間違っていようとも、文字列補完フィードバックを提供しながら、1行のコードを記述する必要がある質問に使用すると、精度とリコール(99\%以上)が良好であることが判明した。
授業に文字列補完のヒントを付した形式的クイズを導入した後、形成的クイズの中で教師や指導助手が受けた質問の数は大幅に減少し、トレーニング質問のほとんどが、教職員の助けなしに正しい答えを見つける結果となった。
しかし、一部の学生は、質問に実際に答えることなく、正しい答えを学ぶためにフォーマティブなクイズを使用している。
関連論文リスト
- Code Interviews: Design and Evaluation of a More Authentic Assessment for Introductory Programming Assignments [15.295438618760164]
本稿では,家庭内プログラミングの課題に対する,より正確な評価手法であるコードインタビューについて述べる。
コードインタビューは、学生に自分の仕事について議論するよう促し、よりニュアンスな、時には反復的な洞察を動機づけた。
我々は、学生体験、学術的整合性、作業負荷の教育など、コードインタビューの設計に関するさまざまな決定について論じる。
論文 参考訳(メタデータ) (2024-10-01T19:01:41Z) - A Knowledge-Component-Based Methodology for Evaluating AI Assistants [9.412070852474313]
GPT-4をベースとしたCS1プログラム代入のためのヒント自動生成システムの評価を行った。
本システムは,学生が短時間のプログラミング演習において,誤った解法をいかに改善できるか,という自然言語指導を提供する。
論文 参考訳(メタデータ) (2024-06-09T00:58:39Z) - YODA: Teacher-Student Progressive Learning for Language Models [82.0172215948963]
本稿では,教師が指導するプログレッシブ・ラーニング・フレームワークであるYodaを紹介する。
モデルファインチューニングの有効性を向上させるために,教師の教育過程をエミュレートする。
実験の結果, YODAのデータによるLLaMA2のトレーニングにより, SFTは大幅に向上した。
論文 参考訳(メタデータ) (2024-01-28T14:32:15Z) - Answering Ambiguous Questions with a Database of Questions, Answers, and
Revisions [95.92276099234344]
ウィキペディアから生成される曖昧な質問のデータベースを利用して、あいまいな質問に答えるための新しい最先端技術を提案する。
提案手法は,リコール対策で15%,予測出力から不明瞭な質問を評価する尺度で10%向上する。
論文 参考訳(メタデータ) (2023-08-16T20:23:16Z) - CS1QA: A Dataset for Assisting Code-based Question Answering in an
Introductory Programming Course [13.61096948994569]
CS1QAは、Pythonを使った入門プログラミングクラスでチャットログから収集された9,237の質問応答ペアで構成されている。
各質問には生徒のコードと、質問に答えるコードの一部が添付されている。
論文 参考訳(メタデータ) (2022-10-26T05:40:34Z) - Solving Linear Algebra by Program Synthesis [1.0660480034605238]
我々は、MITのLinear Algebra 18.06コースとコロンビア大学のComputational Linear Algebra COMS3251コースを、インタラクティブなプログラム合成によって完全な精度で解決する。
この驚くほど強い結果は、コース質問をプログラミングタスクに変換し、プログラムを実行して正しい回答を生成することで達成されます。
論文 参考訳(メタデータ) (2021-11-16T01:16:43Z) - ProtoTransformer: A Meta-Learning Approach to Providing Student Feedback [54.142719510638614]
本稿では,フィードバックを数発の分類として提供するという課題について考察する。
メタラーナーは、インストラクターによるいくつかの例から、新しいプログラミング質問に関する学生のコードにフィードバックを与えるように適応します。
本手法は,第1段階の大学が提供したプログラムコースにおいて,16,000名の学生試験ソリューションに対するフィードバックの提供に成功している。
論文 参考訳(メタデータ) (2021-07-23T22:41:28Z) - Few-Shot Complex Knowledge Base Question Answering via Meta
Reinforcement Learning [55.08037694027792]
複雑な質問答え(CQA)は、知識ベース(KB)上の複雑な自然言語質問に答える。
従来のニューラルプログラム誘導(NPI)アプローチは、質問の種類が異なる場合、不均一なパフォーマンスを示す。
本稿では,CQAにおけるプログラム誘導のためのメタ強化学習手法を提案する。
論文 参考訳(メタデータ) (2020-10-29T18:34:55Z) - Retrieve, Program, Repeat: Complex Knowledge Base Question Answering via
Alternate Meta-learning [56.771557756836906]
本稿では,弱い監督からプログラマと交互に検索モデルを自動的に学習する手法を提案する。
本システムでは,知識ベースに対する複雑な質問応答を行う大規模タスクにおいて,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-10-29T18:28:16Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。