論文の概要: Automating Personalized Parsons Problems with Customized Contexts and Concepts
- arxiv url: http://arxiv.org/abs/2404.10990v1
- Date: Wed, 17 Apr 2024 02:01:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-18 15:34:07.524908
- Title: Automating Personalized Parsons Problems with Customized Contexts and Concepts
- Title(参考訳): カスタマイズコンテキストと概念を用いたパーソナライズされたパーソン問題の自動化
- Authors: Andre del Carpio Gutierrez, Paul Denny, Andrew Luxton-Reilly,
- Abstract要約: 大規模言語モデル(LLM)は、学生がオンデマンドのパーソンズ問題を生成できるようにするソリューションを提供する。
本稿では,LLMを用いた無制限なドラッグアンドドロッププログラミング演習を生成する教育ツールであるPuzzleMakerPyを紹介する。
我々は,PuzzleMakerPyを大規模プログラミングコースに展開することで評価し,コンテキストフレーミングの個人化能力は学生にとって非常に有意義であることが判明した。
- 参考スコア(独自算出の注目度): 2.185263087861945
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Parsons problems provide useful scaffolding for introductory programming students learning to write code. However, generating large numbers of high-quality Parsons problems that appeal to the diverse range of interests in a typical introductory course is a significant challenge for educators. Large language models (LLMs) may offer a solution, by allowing students to produce on-demand Parsons problems for topics covering the breadth of the introductory programming curriculum, and targeting thematic contexts that align with their personal interests. In this paper, we introduce PuzzleMakerPy, an educational tool that uses an LLM to generate unlimited contextualized drag-and-drop programming exercises in the form of Parsons Problems, which introductory programmers can use as a supplemental learning resource. We evaluated PuzzleMakerPy by deploying it in a large introductory programming course, and found that the ability to personalize the contextual framing used in problem descriptions was highly engaging for students, and being able to customize the programming topics was reported as being useful for their learning.
- Abstract(参考訳): パーソンズの問題は、コードを書くことを学ぶ入門プログラミングの学生に有用な足場を提供する。
しかし、典型的な入門コースにおける多様な興味に訴える多くの高品質のパーソンズ問題を発生させることは、教育者にとって重要な課題である。
大きな言語モデル(LLM)は、学生が入門プログラミングカリキュラムの広さをカバーするトピックに対して、オンデマンドのパーソンズ問題を生成できるようにし、個人の関心に合わせたテーマのコンテキストをターゲットにすることで、ソリューションを提供することができる。
本稿では,LLMを用いた学習ツールであるPuzzleMakerPyについて紹介する。
本研究では,PuzzleMakerPyを大規模プログラミングコースに展開することで評価し,問題記述に使用するコンテキストフレーミングをパーソナライズする能力は学生にとって非常に有意義であり,プログラミングトピックをカスタマイズできることは学習に役立つと報告した。
関連論文リスト
- Integrating Natural Language Prompting Tasks in Introductory Programming Courses [3.907735250728617]
本報告では、導入プログラミングコースに2つのプロンプトに焦点を当てたアクティビティを組み込むことについて検討する。
第一に、学生は自然言語のプロンプトを書き、構文上の問題解決を強調することで、計算問題を解く必要がある。
2つ目は、プロンプトとコードの関係を理解するために、提供されたフラグメントに相当するコードを生成するプロンプトを作成することである。
論文 参考訳(メタデータ) (2024-10-04T01:03:25Z) - Estimating Difficulty Levels of Programming Problems with Pre-trained Model [18.92661958433282]
プログラミング問題の難易度は、生徒の適応学習を導く上で不可欠な基準となっている。
テキスト記述とコードの解の例から,各プログラム問題の難易度自動推定の問題を定式化する。
この問題に対処するため,テキストモダリティとコードモダリティの2つの事前学習モデルを統一モデルに分割することを提案する。
論文 参考訳(メタデータ) (2024-06-13T05:38:20Z) - CodeTailor: LLM-Powered Personalized Parsons Puzzles for Engaging Support While Learning Programming [6.43344619836303]
生成AIは、ほとんどのイントロレベルのプログラミング問題に対するソリューションを作成することができる。
学生はこれらのツールを使って、コードを生成するだけで、エンゲージメントが減り、学習が制限される。
学生にパーソナライズされた支援を提供するために,大規模言語モデル(LLM)を活用するシステムであるCodeTailorを紹介する。
論文 参考訳(メタデータ) (2024-01-22T17:08:54Z) - Integrating Personalized Parsons Problems with Multi-Level Textual
Explanations to Scaffold Code Writing [7.277912553209182]
初心者プログラマは、学習プロセスの一部として基本的なコードを書く必要がありますが、しばしば困難に直面します。
障害のある学生を支援するために、我々は最近パーソンズのパーソンズ問題を実装し、学生がコードブロックを配置して、それらをポップアップの足場として解決した。
学生たちは、正しい答えを単に受け取るのではなく、よりエンゲージメントが高く、学習に好まれていることに気付きました。
論文 参考訳(メタデータ) (2024-01-06T07:27:46Z) - Understanding the Effects of Using Parsons Problems to Scaffold Code
Writing for Students with Varying CS Self-Efficacy Levels [7.277912553209182]
本研究では,CS自己効力のレベルが異なる学生を対象に,Parsons問題をコード記述の足場として利用することの影響について検討した。
CS自己効力レベルが低い学生では,足場を受講した学生は,実践的パフォーマンスと実践的問題解決効率が有意に向上した。
このトピックに関する事前実践的な知識を持つ学生は、パーソンズの足場を効果的に活用する傾向があった。
論文 参考訳(メタデータ) (2023-11-29T22:02:46Z) - Evaluating Language Models for Mathematics through Interactions [116.67206980096513]
大型言語モデル(LLM)と対話し,評価するためのプロトタイププラットフォームであるCheckMateを紹介した。
我々はCheckMateと共同で3つの言語モデル(InstructGPT, ChatGPT, GPT-4)を、学部レベルの数学の証明支援として評価する研究を行った。
我々は、人間の行動の分類を導き、概して肯定的な相関にもかかわらず、正しさと知覚的有用性の間に顕著な相違点があることを明らかにする。
論文 参考訳(メタデータ) (2023-06-02T17:12:25Z) - Towards a Holistic Understanding of Mathematical Questions with
Contrastive Pre-training [65.10741459705739]
本稿では,数学的問題表現,すなわち QuesCo に対する対照的な事前学習手法を提案する。
まず、コンテンツレベルと構造レベルを含む2段階の質問強化を設計し、類似した目的で文字通り多様な質問ペアを生成する。
そこで我々は,知識概念の階層的情報を完全に活用するために,知識階層を意識したランク戦略を提案する。
論文 参考訳(メタデータ) (2023-01-18T14:23:29Z) - A Case Study in Engineering a Conversational Programming Assistant's
Persona [72.47187215119664]
会話能力は、既存のコード流大言語モデルを使用することで達成された。
プロンプトの進化に関する議論は、既存の基礎モデルを特定のアプリケーションに望ましい方法で振る舞う方法に関するケーススタディを提供する。
論文 参考訳(メタデータ) (2023-01-13T14:48:47Z) - JiuZhang: A Chinese Pre-trained Language Model for Mathematical Problem
Understanding [74.12405417718054]
本稿では,中国初の数学的事前学習言語モデル(PLM)を提示することにより,機械の数学的知性向上を目指す。
他の標準のNLPタスクとは異なり、数学的テキストは問題文に数学的用語、記号、公式を含むため理解が難しい。
基礎課程と上級課程の両方からなる数学PLMの学習を改善するための新しいカリキュラム事前学習手法を設計する。
論文 参考訳(メタデータ) (2022-06-13T17:03:52Z) - ProtoTransformer: A Meta-Learning Approach to Providing Student Feedback [54.142719510638614]
本稿では,フィードバックを数発の分類として提供するという課題について考察する。
メタラーナーは、インストラクターによるいくつかの例から、新しいプログラミング質問に関する学生のコードにフィードバックを与えるように適応します。
本手法は,第1段階の大学が提供したプログラムコースにおいて,16,000名の学生試験ソリューションに対するフィードバックの提供に成功している。
論文 参考訳(メタデータ) (2021-07-23T22:41:28Z) - Dive into Deep Learning [119.30375933463156]
この本はJupyterのノートブックでドラフトされており、説明図、数学、インタラクティブな例を自己完結型コードとシームレスに統合している。
私たちのゴールは、(i)誰でも自由に利用できるリソースを提供すること、(ii)応用機械学習科学者になるための出発点を提供するのに十分な技術的な深さを提供すること、(iii)実行可能なコードを含み、実際にどのように問題を解決するかを読者に示すこと、(iv)私たちとコミュニティの両方による迅速なアップデートを可能にすることです。
論文 参考訳(メタデータ) (2021-06-21T18:19:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。