論文の概要: Let's Ask Students About Their Programs, Automatically
- arxiv url: http://arxiv.org/abs/2103.11138v1
- Date: Sat, 20 Mar 2021 09:15:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-07 08:29:16.711331
- Title: Let's Ask Students About Their Programs, Automatically
- Title(参考訳): 生徒にプログラムについて尋ねてみよう
- Authors: Teemu Lehtinen and Andr\'e L. Santos and Juha Sorva
- Abstract要約: 学生は時に機能するコードを生成するが、その作者は理解していない。
これらの問題に対処する方法の1つは、生徒が自分のプログラムについて質問することで、生徒の理解を調査することである。
本稿では,学生が書いたプログラムコードに関する質問を自動的に生成する手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Students sometimes produce code that works but that its author does not
comprehend. For example, a student may apply a poorly-understood code template,
stumble upon a working solution through trial and error, or plagiarize.
Similarly, passing an automated functional assessment does not guarantee that
the student understands their code. One way to tackle these issues is to probe
students' comprehension by asking them questions about their own programs. We
propose an approach to automatically generate questions about student-written
program code. We moreover propose a use case for such questions in the context
of automatic assessment systems: after a student's program passes unit tests,
the system poses questions to the student about the code. We suggest that these
questions can enhance assessment systems, deepen student learning by acting as
self-explanation prompts, and provide a window into students' program
comprehension. This discussion paper sets an agenda for future technical
development and empirical research on the topic.
- Abstract(参考訳): 学生は、著者が理解していないコードを作成することがある。
例えば、学生は理解が不十分なコードテンプレートを適用したり、試行錯誤によって動作するソリューションにぶつかったり、盗用したりする。
同様に、自動機能評価の合格は、生徒が自分のコードを理解することを保証しない。
これらの問題に取り組む1つの方法は、生徒が自分のプログラムについて質問することで理解を深めることである。
学生が書いたプログラムコードに関する質問を自動的に生成する手法を提案する。
さらに,学生のプログラムが単体テストに合格した後,学生にコードに関する質問を行うという,自動評価システムの文脈において,このような質問に対するユースケースを提案する。
これらの質問は,評価システムを強化し,自己説明プロンプトとして行動することで学生学習を深め,学生のプログラム理解の窓口となることを示唆する。
本稿では,今後の技術開発と今後の実証研究の課題について述べる。
関連論文リスト
- A Knowledge-Component-Based Methodology for Evaluating AI Assistants [9.412070852474313]
GPT-4をベースとしたCS1プログラム代入のためのヒント自動生成システムの評価を行った。
本システムは,学生が短時間のプログラミング演習において,誤った解法をいかに改善できるか,という自然言語指導を提供する。
論文 参考訳(メタデータ) (2024-06-09T00:58:39Z) - Using Large Language Models for Student-Code Guided Test Case Generation
in Computer Science Education [2.5382095320488665]
テストケースは、コンピュータサイエンス教育におけるプログラミング課題の不可欠な部分である。
テストケースは、学生のプログラミング知識をテストし、学生が書いたコードに対してパーソナライズされたフィードバックを提供するための評価項目として使用することができる。
テストケースを自動的に生成する大規模言語モデルに基づくアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-11T01:37:48Z) - Automated Questions About Learners' Own Code Help to Detect Fragile
Knowledge [0.0]
学生は、実際にどのように動作するかを脆弱に理解していても、正しく機能するプログラムコードを作成できる。
個々のエクササイズ提出書(QLC)から自動的に抽出された質問は、学生が作成したコードの構造とロジックを十分に理解しているかどうかを調査することができる。
論文 参考訳(メタデータ) (2023-06-28T14:49:16Z) - Giving Feedback on Interactive Student Programs with Meta-Exploration [74.5597783609281]
ウェブサイトやゲームのようなインタラクティブなソフトウェアを開発することは、特にコンピュータ科学を学ぶための魅力的な方法である。
標準的アプローチでは、インストラクターは、学生が実装した対話型プログラムを手動で評価する必要がある。
Code.orgのような何百万ものオンラインプラットフォームは、インタラクティブなプログラムを実装するための代入に関するフィードバックを提供することができない。
論文 参考訳(メタデータ) (2022-11-16T10:00:23Z) - GPT-based Open-Ended Knowledge Tracing [24.822739021636455]
学生の質問に対する回答を正確に予測する新しい課題について検討する。
私たちの研究は、コンピュータサイエンス教育の分野において、プログラミングに関する質問に基礎を置いています。
学生の知識に基づくコード生成手法であるOKT問題の初期解を開発した。
論文 参考訳(メタデータ) (2022-02-21T02:33:34Z) - Continuous Examination by Automatic Quiz Assessment Using Spiral Codes
and Image Processing [69.35569554213679]
紙のキズは安価で、教室のキャンパス教育の範囲内にある。
クイズの修正は かなりの障害だ
本稿では,新しい画像処理技術によって問題を緩和することを提案する。
論文 参考訳(メタデータ) (2022-01-26T22:58:15Z) - ProtoTransformer: A Meta-Learning Approach to Providing Student Feedback [54.142719510638614]
本稿では,フィードバックを数発の分類として提供するという課題について考察する。
メタラーナーは、インストラクターによるいくつかの例から、新しいプログラミング質問に関する学生のコードにフィードバックを与えるように適応します。
本手法は,第1段階の大学が提供したプログラムコースにおいて,16,000名の学生試験ソリューションに対するフィードバックの提供に成功している。
論文 参考訳(メタデータ) (2021-07-23T22:41:28Z) - Students Struggle to Explain Their Own Program Code [0.0]
プログラミング演習に応募した後、学生に小プログラムの構造と実行について説明するよう依頼する。
生徒の3分の1は、自身のプログラムコードを説明するのに苦労した。
以上の結果から,QLCの正解は,単に正しいプログラムを提出するよりも,学生の成功率と保持率との相関が強いことが示唆された。
論文 参考訳(メタデータ) (2021-04-14T09:13:05Z) - Retrieve, Program, Repeat: Complex Knowledge Base Question Answering via
Alternate Meta-learning [56.771557756836906]
本稿では,弱い監督からプログラマと交互に検索モデルを自動的に学習する手法を提案する。
本システムでは,知識ベースに対する複雑な質問応答を行う大規模タスクにおいて,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-10-29T18:28:16Z) - Neural Multi-Task Learning for Teacher Question Detection in Online
Classrooms [50.19997675066203]
教師の音声記録から質問を自動的に検出するエンドツーエンドのニューラルネットワークフレームワークを構築している。
マルチタスク学習手法を取り入れることで,質問の種類によって意味的関係の理解を深めることが可能となる。
論文 参考訳(メタデータ) (2020-05-16T02:17:04Z) - Code Review in the Classroom [57.300604527924015]
教室設定の若い開発者は、コードレビュープロセスの潜在的に有利で問題のある領域の明確な図を提供している。
彼らのフィードバックは、プロセスはプロセスを改善するためにいくつかのポイントで十分に受け入れられていることを示唆している。
本論文は,教室でコードレビューを行うためのガイドラインとして利用することができる。
論文 参考訳(メタデータ) (2020-04-19T06:07:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。