論文の概要: Integrating Personalized Parsons Problems with Multi-Level Textual
Explanations to Scaffold Code Writing
- arxiv url: http://arxiv.org/abs/2401.03144v1
- Date: Sat, 6 Jan 2024 07:27:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 20:24:46.277384
- Title: Integrating Personalized Parsons Problems with Multi-Level Textual
Explanations to Scaffold Code Writing
- Title(参考訳): マルチレベルテキスト記述によるパーソナライズされたパーソンズ問題の統合
- Authors: Xinying Hou, Barbara J. Ericson, Xu Wang
- Abstract要約: 初心者プログラマは、基本的なコードを書く方法を学ぶ必要がありますが、独立してコーディングする場合、しばしば困難に直面します。
我々は最近、パーソンズ問題をポップアップの足場として実装した。
私たちのゴールは、パーソンズ問題をコード説明を通じて理解を深めることで、パーソンズ問題を足場として利用することの利点を強化することです。
- 参考スコア(独自算出の注目度): 7.277912553209182
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Novice programmers need to learn how to write basic code but often face
difficulties when coding independently. To assist struggling students, we have
recently implemented personalized Parsons problems as a pop-up scaffolding.
Students found them to be more engaging and helpful for learning compared to
simply receiving the correct answer, such as the response they might get from
Large Language Model (LLM) tools like ChatGPT. However, a drawback of using
Parsons problems as scaffolding is that students may be able to put the code
blocks back in place without fully understanding the rationale of the correct
solution. As a result, the learning benefits of such scaffolding are
compromised. Our goal is to enhance the advantages of using personalized
Parsons problems as scaffolding by improving their comprehension through code
explanations. In this poster, we propose designs that incorporate multiple
levels of textual explanations in the Parsons problems. This design will be
used for future technical evaluation and classroom experiments. These
experiments will explore the effectiveness of adding textual explanations to
Parsons problems to improve instructional benefits.
- Abstract(参考訳): 初心者のプログラマは、基本的なコードを書く方法を学ぶ必要があるが、独立してコーディングする場合、しばしば困難に直面する。
苦難学生を支援するため,我々は最近パーソナライズされたパーソンズ問題をポップアップ・スキャフォールディングとして導入した。
学生たちは、ChatGPTのようなLarge Language Model (LLM)ツールから得られる回答など、正しい回答を単に受け取るよりも、より魅力的で、学習に役立つことに気付きました。
しかし、パーソンズの問題を足場として使う欠点は、学生が正しい解の理性を完全に理解せずにコードブロックを戻すことができることである。
その結果、このような足場による学習の利点が損なわれる。
私たちのゴールは、パーソンズ問題をコード説明を通じて理解を改善して足場として使うという利点を強化することです。
本ポスターでは,パーソンズ問題に多段階のテキスト説明を組み込んだ設計を提案する。
この設計は将来の技術評価と教室の実験に使用される。
これらの実験は、教師の利益を改善するためにパーソンズ問題にテキストによる説明を加えることの有効性を探求する。
関連論文リスト
- Automating Personalized Parsons Problems with Customized Contexts and Concepts [2.185263087861945]
大規模言語モデル(LLM)は、学生がオンデマンドのパーソンズ問題を生成できるようにするソリューションを提供する。
本稿では,LLMを用いた無制限なドラッグアンドドロッププログラミング演習を生成する教育ツールであるPuzzleMakerPyを紹介する。
我々は,PuzzleMakerPyを大規模プログラミングコースに展開することで評価し,コンテキストフレーミングの個人化能力は学生にとって非常に有意義であることが判明した。
論文 参考訳(メタデータ) (2024-04-17T02:01:50Z) - YODA: Teacher-Student Progressive Learning for Language Models [82.0172215948963]
本稿では,教師が指導するプログレッシブ・ラーニング・フレームワークであるYodaを紹介する。
モデルファインチューニングの有効性を向上させるために,教師の教育過程をエミュレートする。
実験の結果, YODAのデータによるLLaMA2のトレーニングにより, SFTは大幅に向上した。
論文 参考訳(メタデータ) (2024-01-28T14:32:15Z) - CodeTailor: LLM-Powered Personalized Parsons Puzzles for Engaging Support While Learning Programming [6.43344619836303]
生成AIは、ほとんどのイントロレベルのプログラミング問題に対するソリューションを作成することができる。
学生はこれらのツールを使って、コードを生成するだけで、エンゲージメントが減り、学習が制限される。
学生にパーソナライズされた支援を提供するために,大規模言語モデル(LLM)を活用するシステムであるCodeTailorを紹介する。
論文 参考訳(メタデータ) (2024-01-22T17:08:54Z) - Understanding the Effects of Using Parsons Problems to Scaffold Code
Writing for Students with Varying CS Self-Efficacy Levels [7.277912553209182]
本研究では,CS自己効力のレベルが異なる学生を対象に,Parsons問題をコード記述の足場として利用することの影響について検討した。
CS自己効力レベルが低い学生では,足場を受講した学生は,実践的パフォーマンスと実践的問題解決効率が有意に向上した。
このトピックに関する事前実践的な知識を持つ学生は、パーソンズの足場を効果的に活用する傾向があった。
論文 参考訳(メタデータ) (2023-11-29T22:02:46Z) - More Robots are Coming: Large Multimodal Models (ChatGPT) can Solve
Visually Diverse Images of Parsons Problems [0.4660328753262075]
視覚的代入に基づく2つの大規模マルチモーダルモデルの性能評価を行った。
GPT-4Vはこれらの視覚的問題の96.7%を解決し、1つのパーソンズの問題を最小限に解決した。
バードは69.2%の問題を解き、幻覚や拒絶といった一般的な問題に悩まされた。
論文 参考訳(メタデータ) (2023-11-03T14:47:17Z) - MathDial: A Dialogue Tutoring Dataset with Rich Pedagogical Properties
Grounded in Math Reasoning Problems [74.73881579517055]
そこで本稿では,一般学生の誤りを表現した大規模言語モデルを用いて,人間教師の対話を生成する枠組みを提案する。
このフレームワークを用いて3kの1対1の教師-学生対話のデータセットであるMathDialを収集する方法について述べる。
論文 参考訳(メタデータ) (2023-05-23T21:44:56Z) - Adaptive Scaffolding in Block-Based Programming via Synthesizing New
Tasks as Pop Quizzes [30.127552292093384]
マルチチョイスプログラミングタスクとして提示されるポップクイズに基づく足場構築フレームワークを提案する。
これらのポップ・クイズを自動的に生成するために,新しいアルゴリズムであるPQuizSynを提案する。
提案アルゴリズムは, (a) 適応性, (b) 理解し易く, (c) 理解し易い, (c) 理解し難い, (c) 解決コードを明らかにしない,という特徴を持つ,ポップ・クイズのための新しいタスクを合成する。
論文 参考訳(メタデータ) (2023-03-28T23:52:15Z) - Towards a Holistic Understanding of Mathematical Questions with
Contrastive Pre-training [65.10741459705739]
本稿では,数学的問題表現,すなわち QuesCo に対する対照的な事前学習手法を提案する。
まず、コンテンツレベルと構造レベルを含む2段階の質問強化を設計し、類似した目的で文字通り多様な質問ペアを生成する。
そこで我々は,知識概念の階層的情報を完全に活用するために,知識階層を意識したランク戦略を提案する。
論文 参考訳(メタデータ) (2023-01-18T14:23:29Z) - Giving Feedback on Interactive Student Programs with Meta-Exploration [74.5597783609281]
ウェブサイトやゲームのようなインタラクティブなソフトウェアを開発することは、特にコンピュータ科学を学ぶための魅力的な方法である。
標準的アプローチでは、インストラクターは、学生が実装した対話型プログラムを手動で評価する必要がある。
Code.orgのような何百万ものオンラインプラットフォームは、インタラクティブなプログラムを実装するための代入に関するフィードバックを提供することができない。
論文 参考訳(メタデータ) (2022-11-16T10:00:23Z) - ProtoTransformer: A Meta-Learning Approach to Providing Student Feedback [54.142719510638614]
本稿では,フィードバックを数発の分類として提供するという課題について考察する。
メタラーナーは、インストラクターによるいくつかの例から、新しいプログラミング質問に関する学生のコードにフィードバックを与えるように適応します。
本手法は,第1段階の大学が提供したプログラムコースにおいて,16,000名の学生試験ソリューションに対するフィードバックの提供に成功している。
論文 参考訳(メタデータ) (2021-07-23T22:41:28Z) - Dive into Deep Learning [119.30375933463156]
この本はJupyterのノートブックでドラフトされており、説明図、数学、インタラクティブな例を自己完結型コードとシームレスに統合している。
私たちのゴールは、(i)誰でも自由に利用できるリソースを提供すること、(ii)応用機械学習科学者になるための出発点を提供するのに十分な技術的な深さを提供すること、(iii)実行可能なコードを含み、実際にどのように問題を解決するかを読者に示すこと、(iv)私たちとコミュニティの両方による迅速なアップデートを可能にすることです。
論文 参考訳(メタデータ) (2021-06-21T18:19:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。