論文の概要: CodeTailor: Personalized Parsons Puzzles are Preferred Over AI-Generated
Solutions to Support Learning
- arxiv url: http://arxiv.org/abs/2401.12125v2
- Date: Sat, 27 Jan 2024 00:18:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 20:13:54.944466
- Title: CodeTailor: Personalized Parsons Puzzles are Preferred Over AI-Generated
Solutions to Support Learning
- Title(参考訳): CodeTailor:パーソナライズされたパーソンズパズルは、学習を支援するAI生成ソリューションよりも優先される
- Authors: Xinying Hou, Zihan Wu, Xu Wang, Barbara J. Ericson
- Abstract要約: 生成AIは、ほとんどの導入プログラミング問題に対するソリューションを作成することができる。
学生はコード生成や宿題の完了にこれらのツールを頼りにしてしまうかもしれません。
我々は,大規模言語モデル(LLM)を活用しながら,学生の認知活動を促進するシステムであるCodeTailorを紹介する。
- 参考スコア(独自算出の注目度): 7.028077796087939
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Programming can be challenging for novices, and it is difficult to provide
high-quality, comprehensive, and timely support at scale. Generative AI and its
products, like ChatGPT, can create a solution for most introductory programming
problems. However, students may become overly reliant on these tools for quick
code generation and homework completion, which might cause reduced engagement
and limited learning. In this work, we present CodeTailor, a system that
leverages large language models (LLMs) while still encouraging students'
cognitive engagement. CodeTailor provides a personalized Parsons puzzle to
support struggling students. In a Parsons puzzle, students place mixed-up code
blocks in the correct order to solve it. A technical evaluation with 800
incorrect student code demonstrated that CodeTailor can efficiently create
high-quality (correct, personalized, and concise) Parsons puzzles for students.
In a within-subjects experiment with 18 novice programmers, students rated
using CodeTailor as more engaging, and they recalled more newly acquired
elements from the supported practice in the posttest after using CodeTailor,
compared to when they simply received an AI-generated solution. In addition,
most students preferred to use CodeTailor over receiving an AI-generated
solution to support learning. Qualitative observations and interviews also
provided evidence for the benefits of CodeTailor, including emphasizing
thinking about solution construction, fostering continuity in learning,
promoting reflection, and boosting student confidence. We conclude by
suggesting future design ideas for applying generative AI to facilitate active
learning opportunities and minimize over-reliance.
- Abstract(参考訳): プログラミングは初心者にとって難しいことであり、大規模に高品質で包括的でタイムリーなサポートを提供することは難しい。
生成AIとその製品であるChatGPTは、ほとんどの導入プログラミング問題に対するソリューションを作成することができる。
しかし、学生はコード生成や宿題の完了にこれらのツールを過度に頼り、エンゲージメントが低下し学習が制限される可能性がある。
本研究では,大規模言語モデル(LLM)を活用するシステムであるCodeTailorを紹介する。
CodeTailorは、苦労している学生を支援するパーソンズパズルをパーソナライズする。
パーソンズパズルでは、生徒がミックスアップされたコードブロックを正しい順序で配置して解決する。
800の不正な学生コードによる技術的評価により、CodeTailorは学生に高品質な(正確でパーソナライズされ、簡潔な)パーソンズパズルを効率的に作成できることを示した。
CodeTailorを使った18人の初心者プログラマによる実験では、学生はCodeTailorをよりエンゲージメントであると評価し、CodeTailorを使用した後、サポート対象のプラクティスから新たに獲得した要素を、AI生成ソリューションを単に受け取ったときと比較して思い出させた。
さらに、ほとんどの学生は、学習を支援するAI生成ソリューションを受けるよりも、CodeTailorを使うことを好む。
質的な観察とインタビューは、ソリューション構築についての考えを強調し、学習の継続性を促進し、反映を促進し、学生の信頼を高めることなど、CodeTailorの利点を示す証拠も提供した。
我々は、生産的AIを適用し、アクティブな学習機会を促進し、過度な信頼性を最小化するための将来の設計アイデアを提案する。
関連論文リスト
- Personalized Parsons Puzzles as Scaffolding Enhance Practice Engagement Over Just Showing LLM-Powered Solutions [6.43344619836303]
パーソンズパズルを足場としてパーソンズパズルを受け取った学生は、苦労するときに完全な解決策を得た学生よりもはるかに長い練習に従事した。
その結果,パーソンズパズルを足場としてパーソンズパズルを受講した学生は,苦労時に解答を受けた学生よりも有意に長い練習を行った。
論文 参考訳(メタデータ) (2025-01-16T00:05:20Z) - Automating Personalized Parsons Problems with Customized Contexts and Concepts [2.185263087861945]
大規模言語モデル(LLM)は、学生がオンデマンドのパーソンズ問題を生成できるようにするソリューションを提供する。
本稿では,LLMを用いた無制限なドラッグアンドドロッププログラミング演習を生成する教育ツールであるPuzzleMakerPyを紹介する。
我々は,PuzzleMakerPyを大規模プログラミングコースに展開することで評価し,コンテキストフレーミングの個人化能力は学生にとって非常に有意義であることが判明した。
論文 参考訳(メタデータ) (2024-04-17T02:01:50Z) - Code Prompting Elicits Conditional Reasoning Abilities in Text+Code LLMs [65.2379940117181]
自然言語の問題をコードに変換する一連のプロンプトであるコードプロンプトを導入します。
コードプロンプトは複数のLLMに対して高速に向上することがわかった。
GPT 3.5を解析した結果,入力問題のコードフォーマッティングが性能向上に不可欠であることが判明した。
論文 参考訳(メタデータ) (2024-01-18T15:32:24Z) - Integrating Personalized Parsons Problems with Multi-Level Textual
Explanations to Scaffold Code Writing [7.277912553209182]
初心者プログラマは、学習プロセスの一部として基本的なコードを書く必要がありますが、しばしば困難に直面します。
障害のある学生を支援するために、我々は最近パーソンズのパーソンズ問題を実装し、学生がコードブロックを配置して、それらをポップアップの足場として解決した。
学生たちは、正しい答えを単に受け取るのではなく、よりエンゲージメントが高く、学習に好まれていることに気付きました。
論文 参考訳(メタデータ) (2024-01-06T07:27:46Z) - Lessons from Building StackSpot AI: A Contextualized AI Coding Assistant [2.268415020650315]
大規模言語モデル上に構築された新しいタイプのツールが登場しつつある。
これらのツールは、微調整やコンテキスト情報によるユーザプロンプトの強化といった手法を用いて、欠点を軽減することを目的としている。
論文 参考訳(メタデータ) (2023-11-30T10:51:26Z) - Promptly: Using Prompt Problems to Teach Learners How to Effectively
Utilize AI Code Generators [5.458849730200646]
本稿では,「プロンプト問題」として知られる新しい教育概念を紹介する。
プロンプト問題(英: Prompt Problem)は、学生が自然言語のプロンプトを作成し、LLMが特定の問題に対して正しいコードを生成するよう促す問題である。
Promptlyを初年度のPythonプログラミングコースに導入したフィールドスタディから経験的知見を報告する。
論文 参考訳(メタデータ) (2023-07-31T01:46:42Z) - Evaluating Language Models for Mathematics through Interactions [116.67206980096513]
大型言語モデル(LLM)と対話し,評価するためのプロトタイププラットフォームであるCheckMateを紹介した。
我々はCheckMateと共同で3つの言語モデル(InstructGPT, ChatGPT, GPT-4)を、学部レベルの数学の証明支援として評価する研究を行った。
我々は、人間の行動の分類を導き、概して肯定的な相関にもかかわらず、正しさと知覚的有用性の間に顕著な相違点があることを明らかにする。
論文 参考訳(メタデータ) (2023-06-02T17:12:25Z) - CodeT5+: Open Code Large Language Models for Code Understanding and
Generation [72.1638273937025]
大きな言語モデル (LLM) は膨大なソースコードで事前訓練されており、コードインテリジェンスにおいて顕著な進歩を遂げている。
CodeT5+は、コンポーネントモジュールを柔軟に組み合わせて、幅広い下流のコードタスクに適合させることができるコードのためのエンコーダ-デコーダLLMのファミリーである。
我々は、ゼロショット、微調整、命令調整を含む20以上のコード関連ベンチマークでCodeT5+を広範囲に評価した。
論文 参考訳(メタデータ) (2023-05-13T14:23:07Z) - JiuZhang: A Chinese Pre-trained Language Model for Mathematical Problem
Understanding [74.12405417718054]
本稿では,中国初の数学的事前学習言語モデル(PLM)を提示することにより,機械の数学的知性向上を目指す。
他の標準のNLPタスクとは異なり、数学的テキストは問題文に数学的用語、記号、公式を含むため理解が難しい。
基礎課程と上級課程の両方からなる数学PLMの学習を改善するための新しいカリキュラム事前学習手法を設計する。
論文 参考訳(メタデータ) (2022-06-13T17:03:52Z) - ProtoTransformer: A Meta-Learning Approach to Providing Student Feedback [54.142719510638614]
本稿では,フィードバックを数発の分類として提供するという課題について考察する。
メタラーナーは、インストラクターによるいくつかの例から、新しいプログラミング質問に関する学生のコードにフィードバックを与えるように適応します。
本手法は,第1段階の大学が提供したプログラムコースにおいて,16,000名の学生試験ソリューションに対するフィードバックの提供に成功している。
論文 参考訳(メタデータ) (2021-07-23T22:41:28Z) - Measuring Coding Challenge Competence With APPS [54.22600767666257]
コード生成のベンチマークであるAPPSを紹介する。
私たちのベンチマークには1万の問題が含まれています。
GPT-Neoのような最近のモデルでは、導入問題のテストケースの約15%をパスできる。
論文 参考訳(メタデータ) (2021-05-20T17:58:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。