論文の概要: CodeTailor: Personalized Parsons Puzzles are Preferred Over AI-Generated
Solutions to Support Learning
- arxiv url: http://arxiv.org/abs/2401.12125v1
- Date: Mon, 22 Jan 2024 17:08:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 13:13:22.524758
- Title: CodeTailor: Personalized Parsons Puzzles are Preferred Over AI-Generated
Solutions to Support Learning
- Title(参考訳): CodeTailor:パーソナライズされたパーソンズパズルは、学習を支援するAI生成ソリューションよりも優先される
- Authors: Xinying Hou, Zihan Wu, Xu Wang, Barbara J. Ericson
- Abstract要約: 本稿では,大規模言語モデル(LLM)を利用した,学生の認知活動を促進するシステムであるsysを紹介する。
800の不正な学生コードによる技術的評価により、サイは生徒に高品質な(正確でパーソナライズされ、簡潔な)パーソンズパズルを効率的に作成できることを示した。
学生たちは、AIが生成するソリューションを単に受け取るよりも、サイを学習に利用する方がよいと評価した。
- 参考スコア(独自算出の注目度): 7.028077796087939
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Programming can be challenging for novices, but it is difficult to provide
high-quality, comprehensive, and timely support at scale. Generative AI and its
products, like ChatGPT, can create a solution for most introductory programming
problems. However, students may become overly reliant on these tools for quick
code generation and homework completion, leading to reduced engagement and
limited learning. In this work, we present \sys{}, a system that utilizes large
language models (LLM) while still promoting students' cognitive engagement.
\sys{} provides a personalized Parsons puzzle to support struggling students.
In a Parsons puzzle, students place mixed-up code blocks in the correct order
to solve a problem. A technical evaluation with 800 incorrect student code
demonstrated that \sys{} can efficiently create high-quality (correct,
personalized, and concise) Parsons puzzles for students. In a within-subjects
experiment with 18 novice programmers, most students rated using \sys{} as more
engaging, and they preferred \sys{} for learning rather than simply receiving
an AI-generated solution. Additionally, students recalled more new elements
from the supported practice to the posttest after using \sys{}, compared to
when they simply received a direct solution. Qualitative observations and
interviews provided evidence for the benefits of \sys{} including emphasizing
algorithmic thinking, fostering continuity in learning, promoting metacognitive
reflection, and boosting student confidence. We conclude by suggesting future
designs for applying generative AI in a way that minimizes over-reliance and
enhances learning.
- Abstract(参考訳): プログラミングは初心者には難しいかもしれないが、大規模に高品質で包括的でタイムリーなサポートを提供することは難しい。
生成AIとその製品であるChatGPTは、ほとんどの導入プログラミング問題に対するソリューションを作成することができる。
しかし、学生は素早いコード生成と宿題の完了のためにこれらのツールに過度に依存し、エンゲージメントが減少し、学習が制限される。
本研究では,大規模言語モデル (LLM) を利用した学生の認知活動を促進するシステムである sys{} を提案する。
\sys{}は、苦労している学生を支援するパーソンズパズルを提供する。
パーソンズパズルでは、生徒は正しい順番で混合コードブロックを配置して問題を解決する。
800の不正な学生コードによる技術的評価により、‘sys{}’は生徒のための高品質(正確でパーソナライズされた、簡潔な)パーソンズパズルを効率的に作成できることを示した。
18人の初心者プログラマによるイントラサブジェクション実験では、ほとんどの学生は、単にaiが生成するソリューションを受け取るのではなく、学習のために \sys{} を好んだ。
さらに、学生は、単に直接解を得たときと比べて、サポートされたプラクティスから、 \sys{}を使った後のposttestまで、より多くの新しい要素を思い出した。
質的観察とインタビューは、アルゴリズム的思考の強調、学習の連続性育成、メタ認知的リフレクションの促進、学生の自信の高揚を含む、 \sys{} の利点の証拠を提供した。
我々は、過剰信頼性を最小化し、学習を強化する方法で生成AIを適用するための将来の設計を提案する。
関連論文リスト
- Personalized Parsons Puzzles as Scaffolding Enhance Practice Engagement Over Just Showing LLM-Powered Solutions [6.43344619836303]
パーソンズパズルを足場としてパーソンズパズルを受け取った学生は、苦労するときに完全な解決策を得た学生よりもはるかに長い練習に従事した。
その結果,パーソンズパズルを足場としてパーソンズパズルを受講した学生は,苦労時に解答を受けた学生よりも有意に長い練習を行った。
論文 参考訳(メタデータ) (2025-01-16T00:05:20Z) - Automating Personalized Parsons Problems with Customized Contexts and Concepts [2.185263087861945]
大規模言語モデル(LLM)は、学生がオンデマンドのパーソンズ問題を生成できるようにするソリューションを提供する。
本稿では,LLMを用いた無制限なドラッグアンドドロッププログラミング演習を生成する教育ツールであるPuzzleMakerPyを紹介する。
我々は,PuzzleMakerPyを大規模プログラミングコースに展開することで評価し,コンテキストフレーミングの個人化能力は学生にとって非常に有意義であることが判明した。
論文 参考訳(メタデータ) (2024-04-17T02:01:50Z) - Code Prompting Elicits Conditional Reasoning Abilities in Text+Code LLMs [65.2379940117181]
自然言語の問題をコードに変換する一連のプロンプトであるコードプロンプトを導入します。
コードプロンプトは複数のLLMに対して高速に向上することがわかった。
GPT 3.5を解析した結果,入力問題のコードフォーマッティングが性能向上に不可欠であることが判明した。
論文 参考訳(メタデータ) (2024-01-18T15:32:24Z) - Integrating Personalized Parsons Problems with Multi-Level Textual
Explanations to Scaffold Code Writing [7.277912553209182]
初心者プログラマは、学習プロセスの一部として基本的なコードを書く必要がありますが、しばしば困難に直面します。
障害のある学生を支援するために、我々は最近パーソンズのパーソンズ問題を実装し、学生がコードブロックを配置して、それらをポップアップの足場として解決した。
学生たちは、正しい答えを単に受け取るのではなく、よりエンゲージメントが高く、学習に好まれていることに気付きました。
論文 参考訳(メタデータ) (2024-01-06T07:27:46Z) - Lessons from Building StackSpot AI: A Contextualized AI Coding Assistant [2.268415020650315]
大規模言語モデル上に構築された新しいタイプのツールが登場しつつある。
これらのツールは、微調整やコンテキスト情報によるユーザプロンプトの強化といった手法を用いて、欠点を軽減することを目的としている。
論文 参考訳(メタデータ) (2023-11-30T10:51:26Z) - Promptly: Using Prompt Problems to Teach Learners How to Effectively
Utilize AI Code Generators [5.458849730200646]
本稿では,「プロンプト問題」として知られる新しい教育概念を紹介する。
プロンプト問題(英: Prompt Problem)は、学生が自然言語のプロンプトを作成し、LLMが特定の問題に対して正しいコードを生成するよう促す問題である。
Promptlyを初年度のPythonプログラミングコースに導入したフィールドスタディから経験的知見を報告する。
論文 参考訳(メタデータ) (2023-07-31T01:46:42Z) - Evaluating Language Models for Mathematics through Interactions [116.67206980096513]
大型言語モデル(LLM)と対話し,評価するためのプロトタイププラットフォームであるCheckMateを紹介した。
我々はCheckMateと共同で3つの言語モデル(InstructGPT, ChatGPT, GPT-4)を、学部レベルの数学の証明支援として評価する研究を行った。
我々は、人間の行動の分類を導き、概して肯定的な相関にもかかわらず、正しさと知覚的有用性の間に顕著な相違点があることを明らかにする。
論文 参考訳(メタデータ) (2023-06-02T17:12:25Z) - CodeT5+: Open Code Large Language Models for Code Understanding and
Generation [72.1638273937025]
大きな言語モデル (LLM) は膨大なソースコードで事前訓練されており、コードインテリジェンスにおいて顕著な進歩を遂げている。
CodeT5+は、コンポーネントモジュールを柔軟に組み合わせて、幅広い下流のコードタスクに適合させることができるコードのためのエンコーダ-デコーダLLMのファミリーである。
我々は、ゼロショット、微調整、命令調整を含む20以上のコード関連ベンチマークでCodeT5+を広範囲に評価した。
論文 参考訳(メタデータ) (2023-05-13T14:23:07Z) - JiuZhang: A Chinese Pre-trained Language Model for Mathematical Problem
Understanding [74.12405417718054]
本稿では,中国初の数学的事前学習言語モデル(PLM)を提示することにより,機械の数学的知性向上を目指す。
他の標準のNLPタスクとは異なり、数学的テキストは問題文に数学的用語、記号、公式を含むため理解が難しい。
基礎課程と上級課程の両方からなる数学PLMの学習を改善するための新しいカリキュラム事前学習手法を設計する。
論文 参考訳(メタデータ) (2022-06-13T17:03:52Z) - ProtoTransformer: A Meta-Learning Approach to Providing Student Feedback [54.142719510638614]
本稿では,フィードバックを数発の分類として提供するという課題について考察する。
メタラーナーは、インストラクターによるいくつかの例から、新しいプログラミング質問に関する学生のコードにフィードバックを与えるように適応します。
本手法は,第1段階の大学が提供したプログラムコースにおいて,16,000名の学生試験ソリューションに対するフィードバックの提供に成功している。
論文 参考訳(メタデータ) (2021-07-23T22:41:28Z) - Measuring Coding Challenge Competence With APPS [54.22600767666257]
コード生成のベンチマークであるAPPSを紹介する。
私たちのベンチマークには1万の問題が含まれています。
GPT-Neoのような最近のモデルでは、導入問題のテストケースの約15%をパスできる。
論文 参考訳(メタデータ) (2021-05-20T17:58:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。