論文の概要: Students Struggle to Explain Their Own Program Code
- arxiv url: http://arxiv.org/abs/2104.06710v1
- Date: Wed, 14 Apr 2021 09:13:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-03 21:23:00.929103
- Title: Students Struggle to Explain Their Own Program Code
- Title(参考訳): 学生が自分のプログラムコードを説明するのに苦労
- Authors: Teemu Lehtinen, Aleksi Lukkarinen, Lassi Haaranen
- Abstract要約: プログラミング演習に応募した後、学生に小プログラムの構造と実行について説明するよう依頼する。
生徒の3分の1は、自身のプログラムコードを説明するのに苦労した。
以上の結果から,QLCの正解は,単に正しいプログラムを提出するよりも,学生の成功率と保持率との相関が強いことが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We asked students to explain the structure and execution of their small
programs after they had submitted them to a programming exercise. These
questions about learner's code (QLCs) were delivered at three occasions in an
online and open course in introductory programming as a part of the digital
learning material. We make inductive content analysis to research the
open-ended text answers we collected. One third of the students struggled to
explain their own program code. This estimates possible occurrences of fragile
learning at the moment when a student seemingly succeeds in a program writing
exercise. Furthermore, we examine correlations between the correctness of the
answers with other learning data. Our results indicate that answering properly
aligned QLCs correctly has stronger correlation with student success and
retention than merely submitting a correct program. Additionally, we present
observations on learning event-driven programming to explore QLCs' potential in
identifying students' thinking process.
- Abstract(参考訳): プログラミング演習に応募した後、学生に小さなプログラムの構造と実行について説明を依頼した。
learner's code(qlcs)に関するこれらの質問は、デジタル学習教材の一部として入門プログラミングのオンラインコースとオープンコースで3回行われた。
我々は、収集したオープンエンドテキスト回答を研究するために、インダクティブコンテンツ分析を行う。
学生の3分の1は自身のプログラムコードを説明するのに苦労した。
このことは、学生がプログラム執筆演習に成功しているように見える時点で脆弱な学習の発生を推定する。
さらに,回答の正しさと他の学習データとの相関について検討した。
以上の結果から,QLCの正解は,単に正しいプログラムを提出するよりも,学生の成功率と保持率との相関が強いことが示唆された。
さらに,イベント駆動プログラミングの学習に関する観察を行い,学生の思考過程の特定におけるqlcsの可能性について考察する。
関連論文リスト
- A Knowledge-Component-Based Methodology for Evaluating AI Assistants [9.412070852474313]
GPT-4をベースとしたCS1プログラム代入のためのヒント自動生成システムの評価を行った。
本システムは,学生が短時間のプログラミング演習において,誤った解法をいかに改善できるか,という自然言語指導を提供する。
論文 参考訳(メタデータ) (2024-06-09T00:58:39Z) - Let's Ask AI About Their Programs: Exploring ChatGPT's Answers To Program Comprehension Questions [2.377308748205625]
我々は,LLMが生成したコードから生成されたQLCに応答する,最先端のLCMの能力について検討する。
この結果から,現在最先端のLCMではプログラム作成やプログラム実行の追跡が可能であるが,初心者プログラマが記録した類似のエラーに容易に対応できることが示唆された。
論文 参考訳(メタデータ) (2024-04-17T20:37:00Z) - Exploring the Potential of Large Language Models to Generate Formative
Programming Feedback [0.5371337604556311]
計算機教育者や学習者のための大規模言語モデル(LLM)の可能性を探る。
これらの目的を達成するために、我々はChatGPTの入力としてCS1コース内で収集されたデータセットから学生のプログラミングシーケンスを使用した。
その結果,ChatGPTはプログラミングの入門タスクや学生の誤りに対して合理的に機能することがわかった。
しかし、教育者は、初心者向けの誤解を招く情報を含むことができるため、提供されたフィードバックの使い方に関するガイダンスを提供する必要がある。
論文 参考訳(メタデータ) (2023-08-31T15:22:11Z) - Automated Questions About Learners' Own Code Help to Detect Fragile
Knowledge [0.0]
学生は、実際にどのように動作するかを脆弱に理解していても、正しく機能するプログラムコードを作成できる。
個々のエクササイズ提出書(QLC)から自動的に抽出された質問は、学生が作成したコードの構造とロジックを十分に理解しているかどうかを調査することができる。
論文 参考訳(メタデータ) (2023-06-28T14:49:16Z) - Fact-Checking Complex Claims with Program-Guided Reasoning [99.7212240712869]
Program-Guided Fact-Checking (ProgramFC)は、複雑なクレームを単純なサブタスクに分解する新しいファクトチェックモデルである。
まず,大規模言語モデルの文脈内学習能力を活用して推論プログラムを生成する。
我々は,各サブタスクを対応するサブタスクハンドラに委譲することでプログラムを実行する。
論文 参考訳(メタデータ) (2023-05-22T06:11:15Z) - Hierarchical Programmatic Reinforcement Learning via Learning to Compose
Programs [58.94569213396991]
プログラムポリシーを作成するための階層型プログラム強化学習フレームワークを提案する。
提案するフレームワークは,プログラム作成の学習を通じて,アウト・オブ・ディストリビュータの複雑な動作を記述するプログラムポリシーを作成することができる。
Karel ドメインの実験結果から,提案するフレームワークがベースラインより優れていることが示された。
論文 参考訳(メタデータ) (2023-01-30T14:50:46Z) - Giving Feedback on Interactive Student Programs with Meta-Exploration [74.5597783609281]
ウェブサイトやゲームのようなインタラクティブなソフトウェアを開発することは、特にコンピュータ科学を学ぶための魅力的な方法である。
標準的アプローチでは、インストラクターは、学生が実装した対話型プログラムを手動で評価する必要がある。
Code.orgのような何百万ものオンラインプラットフォームは、インタラクティブなプログラムを実装するための代入に関するフィードバックを提供することができない。
論文 参考訳(メタデータ) (2022-11-16T10:00:23Z) - Learning from Self-Sampled Correct and Partially-Correct Programs [96.66452896657991]
そこで本研究では,モデルが学習中にサンプリングを行い,自己サンプリングされた完全正当プログラムと部分正当プログラムの両方から学習することを提案する。
自己サンプリング型プログラムと部分修正型プログラムを併用することで,学習とサンプリングプロセスのガイドに役立てることができることを示す。
提案手法は,MLEを用いた単一の参照プログラムからの学習と比較して,パス@kの性能を3.1%から12.3%向上させる。
論文 参考訳(メタデータ) (2022-05-28T03:31:07Z) - An Analysis of Programming Course Evaluations Before and After the
Introduction of an Autograder [1.329950749508442]
本稿では,最近自己評価を導入した基礎的コンピュータ科学コースの標準化された大学評価アンケートに対する回答について検討する。
我々は,教師と生徒の交流の改善,コースの質の向上,学習の成功の向上,時間の短縮,難易度の向上など,データに大きな変化をもたらした可能性について仮説を立てた。
オートグレーダ技術は、プログラミングコースにおける生徒の満足度を向上させるための教育方法として検証することができる。
論文 参考訳(メタデータ) (2021-10-28T14:09:44Z) - ProtoTransformer: A Meta-Learning Approach to Providing Student Feedback [54.142719510638614]
本稿では,フィードバックを数発の分類として提供するという課題について考察する。
メタラーナーは、インストラクターによるいくつかの例から、新しいプログラミング質問に関する学生のコードにフィードバックを与えるように適応します。
本手法は,第1段階の大学が提供したプログラムコースにおいて,16,000名の学生試験ソリューションに対するフィードバックの提供に成功している。
論文 参考訳(メタデータ) (2021-07-23T22:41:28Z) - BUSTLE: Bottom-Up Program Synthesis Through Learning-Guided Exploration [72.88493072196094]
プログラムのボトムアップ検索に学習を活用する新しい合成手法を提案する。
特に、入力出力例のセットに基づいて、探索条件中の中間値の合成を優先順位付けするようにモデルを訓練する。
単純な教師付き学習アプローチであっても,学習とボトムアップ検索の組み合わせは極めて効果的であることを示す。
論文 参考訳(メタデータ) (2020-07-28T17:46:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。