論文の概要: Automated Questions About Learners' Own Code Help to Detect Fragile
Knowledge
- arxiv url: http://arxiv.org/abs/2306.16267v1
- Date: Wed, 28 Jun 2023 14:49:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-29 13:56:46.819053
- Title: Automated Questions About Learners' Own Code Help to Detect Fragile
Knowledge
- Title(参考訳): 学習者自身のコードに関する自動質問は、脆弱な知識を検出するのに役立つ
- Authors: Teemu Lehtinen, Otto Sepp\"al\"a, Ari Korhonen
- Abstract要約: 学生は、実際にどのように動作するかを脆弱に理解していても、正しく機能するプログラムコードを作成できる。
個々のエクササイズ提出書(QLC)から自動的に抽出された質問は、学生が作成したコードの構造とロジックを十分に理解しているかどうかを調査することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Students are able to produce correctly functioning program code even though
they have a fragile understanding of how it actually works. Questions derived
automatically from individual exercise submissions (QLC) can probe if and how
well the students understand the structure and logic of the code they just
created. Prior research studied this approach in the context of the first
programming course. We replicate the study on a follow-up programming course
for engineering students which contains a recap of general concepts in CS1. The
task was the classic rainfall problem which was solved by 90% of the students.
The QLCs generated from each passing submission were kept intentionally simple,
yet 27% of the students failed in at least one of them. Students who struggled
with questions about their own program logic had a lower median for overall
course points than students who answered correctly.
- Abstract(参考訳): 学生は、実際にどのように動作するかを脆弱に理解していても、正しく機能するプログラムコードを作成できる。
個々のエクササイズサブミッション(qlc)から自動的に派生した質問は、学生が作成したコードの構造とロジックをどの程度理解しているかを調査できる。
以前の研究は、最初のプログラミングコースの文脈でこのアプローチを研究した。
本研究は,CS1における一般概念の要約を含む工学生のためのフォローアッププログラミングコースの再現である。
その課題は、学生の90%が解決した古典的な降雨問題であった。
合格申請ごとに生成されたQLCは意図的にシンプルに保たれていたが、学生の27%は少なくとも1回は失敗した。
自己のプログラム論理に関する質問に苦しむ学生は、正解した学生よりもコースポイント全体の中央値が低かった。
関連論文リスト
- A Knowledge-Component-Based Methodology for Evaluating AI Assistants [9.412070852474313]
GPT-4をベースとしたCS1プログラム代入のためのヒント自動生成システムの評価を行った。
本システムは,学生が短時間のプログラミング演習において,誤った解法をいかに改善できるか,という自然言語指導を提供する。
論文 参考訳(メタデータ) (2024-06-09T00:58:39Z) - Probeable Problems for Beginner-level Programming-with-AI Contests [0.0]
我々は,複数の機関の学部生を対象に,2時間のプログラミングコンテストを実施している。
学生は個人またはグループで働けるようになり、AIツールを自由に使えるようになった。
これらのグループによって提出されたコードが、欠落した詳細を特定できる範囲を分析し、形式的および非公式なCS教育文脈における学習を支援する方法を特定する。
論文 参考訳(メタデータ) (2024-05-24T00:39:32Z) - Logic Query of Thoughts: Guiding Large Language Models to Answer Complex Logic Queries with Knowledge Graphs [102.37496443389203]
LGOT(Logic-Query-of-Thoughts)は知識グラフ推論と大規模言語モデルを組み合わせた最初の方法である。
実験の結果,ChatGPTよりも20%向上した。
論文 参考訳(メタデータ) (2024-03-17T17:01:45Z) - Towards a Holistic Understanding of Mathematical Questions with
Contrastive Pre-training [65.10741459705739]
本稿では,数学的問題表現,すなわち QuesCo に対する対照的な事前学習手法を提案する。
まず、コンテンツレベルと構造レベルを含む2段階の質問強化を設計し、類似した目的で文字通り多様な質問ペアを生成する。
そこで我々は,知識概念の階層的情報を完全に活用するために,知識階層を意識したランク戦略を提案する。
論文 参考訳(メタデータ) (2023-01-18T14:23:29Z) - JiuZhang: A Chinese Pre-trained Language Model for Mathematical Problem
Understanding [74.12405417718054]
本稿では,中国初の数学的事前学習言語モデル(PLM)を提示することにより,機械の数学的知性向上を目指す。
他の標準のNLPタスクとは異なり、数学的テキストは問題文に数学的用語、記号、公式を含むため理解が難しい。
基礎課程と上級課程の両方からなる数学PLMの学習を改善するための新しいカリキュラム事前学習手法を設計する。
論文 参考訳(メタデータ) (2022-06-13T17:03:52Z) - Continuous Examination by Automatic Quiz Assessment Using Spiral Codes
and Image Processing [69.35569554213679]
紙のキズは安価で、教室のキャンパス教育の範囲内にある。
クイズの修正は かなりの障害だ
本稿では,新しい画像処理技術によって問題を緩和することを提案する。
論文 参考訳(メタデータ) (2022-01-26T22:58:15Z) - Solving Linear Algebra by Program Synthesis [1.0660480034605238]
我々は、MITのLinear Algebra 18.06コースとコロンビア大学のComputational Linear Algebra COMS3251コースを、インタラクティブなプログラム合成によって完全な精度で解決する。
この驚くほど強い結果は、コース質問をプログラミングタスクに変換し、プログラムを実行して正しい回答を生成することで達成されます。
論文 参考訳(メタデータ) (2021-11-16T01:16:43Z) - ProtoTransformer: A Meta-Learning Approach to Providing Student Feedback [54.142719510638614]
本稿では,フィードバックを数発の分類として提供するという課題について考察する。
メタラーナーは、インストラクターによるいくつかの例から、新しいプログラミング質問に関する学生のコードにフィードバックを与えるように適応します。
本手法は,第1段階の大学が提供したプログラムコースにおいて,16,000名の学生試験ソリューションに対するフィードバックの提供に成功している。
論文 参考訳(メタデータ) (2021-07-23T22:41:28Z) - Students Struggle to Explain Their Own Program Code [0.0]
プログラミング演習に応募した後、学生に小プログラムの構造と実行について説明するよう依頼する。
生徒の3分の1は、自身のプログラムコードを説明するのに苦労した。
以上の結果から,QLCの正解は,単に正しいプログラムを提出するよりも,学生の成功率と保持率との相関が強いことが示唆された。
論文 参考訳(メタデータ) (2021-04-14T09:13:05Z) - Let's Ask Students About Their Programs, Automatically [0.0]
学生は時に機能するコードを生成するが、その作者は理解していない。
これらの問題に対処する方法の1つは、生徒が自分のプログラムについて質問することで、生徒の理解を調査することである。
本稿では,学生が書いたプログラムコードに関する質問を自動的に生成する手法を提案する。
論文 参考訳(メタデータ) (2021-03-20T09:15:37Z) - Few-Shot Complex Knowledge Base Question Answering via Meta
Reinforcement Learning [55.08037694027792]
複雑な質問答え(CQA)は、知識ベース(KB)上の複雑な自然言語質問に答える。
従来のニューラルプログラム誘導(NPI)アプローチは、質問の種類が異なる場合、不均一なパフォーマンスを示す。
本稿では,CQAにおけるプログラム誘導のためのメタ強化学習手法を提案する。
論文 参考訳(メタデータ) (2020-10-29T18:34:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。