論文の概要: Generative AI in Computer Science Education: Accelerating Python Learning with ChatGPT
- arxiv url: http://arxiv.org/abs/2505.20329v1
- Date: Sat, 24 May 2025 03:13:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 02:01:59.174655
- Title: Generative AI in Computer Science Education: Accelerating Python Learning with ChatGPT
- Title(参考訳): コンピュータサイエンス教育におけるジェネレーティブAI - ChatGPTによるPython学習の促進
- Authors: Ian McCulloh, Pedro Rodriguez, Srivaths Kumar, Manu Gupta, Viplove Raj Sharma, Benjamin Johnson, Anthony N. Johnson,
- Abstract要約: 本研究では,生成型AI,特にOpenAIs ChatGPTを,適用型生成型AIに関する16週間の専門訓練コース内で,自己ペースのPythonプログラムモジュールに統合することの有効性を評価する。
- 参考スコア(独自算出の注目度): 1.1169959897721926
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing demand for digital literacy and artificial intelligence (AI) fluency in the workforce has highlighted the need for scalable, efficient programming instruction. This study evaluates the effectiveness of integrating generative AI, specifically OpenAIs ChatGPT, into a self-paced Python programming module embedded within a sixteen-week professional training course on applied generative AI. A total of 86 adult learners with varying levels of programming experience completed asynchronous Python instruction in Weeks three and four, using ChatGPT to generate, interpret, and debug code. Python proficiency and general coding knowledge was assessed across 30 different assessments during the first 13 weeks of the course through timed, code-based evaluations. A mixed-design ANOVA revealed that learners without prior programming experience scored significantly lower than their peers on early assessments. However, following the completion of the accelerated Python instruction module, these group differences were no longer statistically significant,, indicating that the intervention effectively closed initial performance gaps and supported proficiency gains across all learner groups. These findings suggest that generative AI can support accelerated learning outcomes and reduce entry barriers for learners with no prior coding background. While ChatGPT effectively facilitated foundational skill acquisition, the study also highlights the importance of balancing AI assistance with opportunities for independent problem-solving. The results support the potential of AI-augmented instruction as a scalable model for reskilling in the digital economy.
- Abstract(参考訳): 労働力におけるデジタルリテラシーと人工知能(AI)フラレンシの需要の増加は、スケーラブルで効率的なプログラミング指導の必要性を強調している。
本研究では、生成AI、特にOpenAIs ChatGPTを16週間のプロフェッショナルトレーニングコースに組み込んだ自己ペースのPythonプログラムモジュールに組み込むことの有効性を評価する。
プログラミング経験の異なる86人の成人学習者が、ChatGPTを使用してコードを生成、解釈、デバッグし、週3、4で非同期Python命令を完了した。
Pythonの習熟度と一般的なコーディング知識は、コースの最初の13週間で、タイムドなコードベースの評価を通じて、30の異なる評価で評価された。
ANOVAの混合設計により,事前プログラミング経験のない学習者は早期評価において他者よりも有意に低得点を示した。
しかし,アクセラレーションされたPython命令モジュールが完成すると,これらのグループ差は統計的に有意なものではなく,介入が初期性能ギャップを効果的に閉鎖し,学習者グループ全体での習熟度向上をサポートすることが示唆された。
これらの結果から,生成AIは学習の高速化を支援するとともに,事前のコーディング背景を持たない学習者の参入障壁を低減できることが示唆された。
ChatGPTは、基礎的スキル獲得を効果的に促進する一方で、この研究は、AIアシストと独立した問題解決の機会のバランスをとることの重要性を強調している。
この結果は、デジタル経済におけるリスキル化のためのスケーラブルなモデルとして、AI強化された教育の可能性を支持する。
関連論文リスト
- Sakshm AI: Advancing AI-Assisted Coding Education for Engineering Students in India Through Socratic Tutoring and Comprehensive Feedback [1.9841192743072902]
プログラミング教育のための既存のAIツールは、ソクラティックガイダンスの欠如など、重要な課題に直面している。
本研究では,1170名の登録参加者を対象に,プラットフォームログ,エンゲージメント傾向,問題解決行動を分析し,Sakhm AIの効果を評価する。
論文 参考訳(メタデータ) (2025-03-16T12:13:29Z) - Could ChatGPT get an Engineering Degree? Evaluating Higher Education Vulnerability to AI Assistants [176.39275404745098]
我々は,2つのAIアシスタントであるGPT-3.5とGPT-4が適切な回答を得られるかどうかを評価する。
GPT-4は65.8%の質問を正解し、85.1%の質問に対して少なくとも1つの手順で正しい答えを出すことができる。
この結果から,AIの進歩を踏まえて,高等教育におけるプログラムレベルの評価設計の見直しが求められた。
論文 参考訳(メタデータ) (2024-08-07T12:11:49Z) - Kattis vs. ChatGPT: Assessment and Evaluation of Programming Tasks in
the Age of Artificial Intelligence [0.0]
プログラムタスクを解くために,大規模言語モデルを使用することの有効性は未検討である。
本研究では,ChatGPTによるプログラミング入門コースの難易度に応じて,ChatGPTがコード解を生成する能力について検討した。
プログラム教育におけるAIを活用したツールの有用性に関する議論が進行中である。
論文 参考訳(メタデータ) (2023-12-02T11:09:17Z) - Student Mastery or AI Deception? Analyzing ChatGPT's Assessment
Proficiency and Evaluating Detection Strategies [1.633179643849375]
ChatGPTのような生成AIシステムは、学習と評価に破壊的な影響を及ぼす。
本研究では,ChatGPTを3つのコースに分けて評価することで,ChatGPTの性能を評価する。
論文 参考訳(メタデータ) (2023-11-27T20:10:13Z) - Implementing Learning Principles with a Personal AI Tutor: A Case Study [2.94944680995069]
本研究は,人間の学習過程をモデル化し,学術的性能を効果的に向上するパーソナルAIチューターの能力を示す。
プログラムにAIチューターを統合することで、教育者は、学習科学の原則に基づくパーソナライズされた学習体験を学生に提供することができる。
論文 参考訳(メタデータ) (2023-09-10T15:35:47Z) - Exploring the Use of ChatGPT as a Tool for Learning and Assessment in
Undergraduate Computer Science Curriculum: Opportunities and Challenges [0.3553493344868413]
本稿では,ChatGPTを大学コンピュータサイエンスカリキュラムの学習・評価ツールとして活用する上での課題と課題について論じる。
グループBの学生はChatGPTにアクセスでき、プログラミングの課題を解決するために使うことを奨励された。
結果より,ChatGPTを用いた学生は成績の点で有利であったが,提出されたコードには矛盾や不正確性があった。
論文 参考訳(メタデータ) (2023-04-16T21:04:52Z) - Improving Code Generation by Training with Natural Language Feedback [69.52985513422381]
自然言語フィードバックから学習するアルゴリズムを訓練時に形式化し、それをILF(Language Feedback)と呼ぶ。
ILFはトレーニング中に少量の人間によるフィードバックしか必要とせず、テスト時に同じフィードバックを必要としないため、ユーザフレンドリでサンプル効率がよい。
Instly Basic Python Problems (MBPP)ベンチマークでは、ICFを使用してCodegen-Mono 6.1Bモデルのpass@1レートを38%改善しています。
論文 参考訳(メタデータ) (2023-03-28T16:15:31Z) - Lila: A Unified Benchmark for Mathematical Reasoning [59.97570380432861]
LILAは、23の多様なタスクと4次元からなる統一的な数学的推論ベンチマークである。
我々は,Pythonプログラムの形式でタスク命令とソリューションを収集することにより,20のデータセットベンチマークを拡張してベンチマークを構築した。
LILAで訓練された汎用数学的推論モデルであるBHASKARAを紹介する。
論文 参考訳(メタデータ) (2022-10-31T17:41:26Z) - ProtoTransformer: A Meta-Learning Approach to Providing Student Feedback [54.142719510638614]
本稿では,フィードバックを数発の分類として提供するという課題について考察する。
メタラーナーは、インストラクターによるいくつかの例から、新しいプログラミング質問に関する学生のコードにフィードバックを与えるように適応します。
本手法は,第1段階の大学が提供したプログラムコースにおいて,16,000名の学生試験ソリューションに対するフィードバックの提供に成功している。
論文 参考訳(メタデータ) (2021-07-23T22:41:28Z) - Uncertainty Quantification 360: A Holistic Toolkit for Quantifying and
Communicating the Uncertainty of AI [49.64037266892634]
我々は、AIモデルの不確実性定量化のためのオープンソースのPythonツールキットUncertainty Quantification 360 (UQ360)について述べる。
このツールキットの目標は2つある: ひとつは、AIアプリケーション開発ライフサイクルにおける不確実性を定量化し、評価し、改善し、伝達する共通のプラクティスを育むとともに、合理化するための幅広い能力を提供すること、もうひとつは、信頼できるAIの他の柱とのUQの接続をさらに探求することである。
論文 参考訳(メタデータ) (2021-06-02T18:29:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。