論文の概要: A systematic review of research on large language models for computer programming education
- arxiv url: http://arxiv.org/abs/2506.21818v1
- Date: Sun, 13 Apr 2025 20:13:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-07 02:47:44.330836
- Title: A systematic review of research on large language models for computer programming education
- Title(参考訳): コンピュータ・プログラミング教育における大規模言語モデルの研究の体系的レビュー
- Authors: Meina Zhu, Lanyu Xu, Barbara Ericson,
- Abstract要約: 大規模言語モデル(LLM)は、コンピュータプログラミング教育において重要な役割を担っている。
本研究は,コンピュータプログラミング教育における LLM に関する経験的研究を体系的に検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Given the increasing demands in computer programming education and the rapid advancement of large language models (LLMs), LLMs play a critical role in programming education. This study provides a systematic review of selected empirical studies on LLMs in computer programming education, published from 2023 to March 2024. The data for this review were collected from Web of Science (SCI/SSCI), SCOPUS, and EBSCOhost databases, as well as three conference proceedings specialized in computer programming education. In total, 42 studies met the selection criteria and were reviewed using methods, including bibliometric analysis, thematic analysis, and structural topic modeling. This study offers an overview of the current state of LLMs in computer programming education research. It outlines LLMs' applications, benefits, limitations, concerns, and implications for future research and practices, establishing connections between LLMs and their practical use in computer programming education. This review also provides examples and valuable insights for instructional designers, instructors, and learners. Additionally, a conceptual framework is proposed to guide education practitioners in integrating LLMs into computer programming education. This study suggests future research directions from various perspectives, emphasizing the need to expand research methods and topics in computer programming education as LLMs evolve. Additionally, future research in the field should incorporate collaborative, interdisciplinary, and transdisciplinary efforts on a large scale, focusing on longitudinal research and development initiatives.
- Abstract(参考訳): コンピュータプログラミング教育の需要が増大し、大規模言語モデル(LLM)が急速に進歩する中、LLMはプログラミング教育において重要な役割を担っている。
本研究は,2023年から2024年3月までのコンピュータプログラミング教育において,LLMの選択した経験的研究を体系的にレビューする。
このレビューのデータは、Web of Science(SCI/SSCI)、SCOPUS、EBSCOhostデータベース、およびコンピュータプログラミング教育に特化した3つの会議手続きから収集された。
総じて42研究が選択基準を満たし、文献分析、テーマ分析、構造的トピックモデリングなどの手法を用いてレビューされた。
本研究は,コンピュータプログラミング教育研究におけるLLMの現状について概説する。
LLMの応用、利点、制限、関心事、将来の研究と実践への含意について概説し、LLMとコンピュータプログラミング教育における実践的利用の関連性を確立する。
このレビューはまた、インストラクタデザイナー、インストラクタ、学習者に、サンプルと貴重な洞察を提供する。
さらに,LLMをコンピュータプログラミング教育に統合する上で,教育実践者を指導するための概念的枠組みも提案されている。
本研究は,LLMが進化するにつれて,コンピュータプログラミング教育における研究手法やトピックを拡張する必要性を強調し,様々な観点からの今後の研究方向性を示唆する。
さらに、この分野における今後の研究は、縦断的な研究と開発イニシアチブに焦点をあてて、協力的、学際的、横断的な大規模な取り組みを取り入れるべきである。
関連論文リスト
- Inverse Reinforcement Learning Meets Large Language Model Post-Training: Basics, Advances, and Opportunities [62.05713042908654]
本稿では,逆強化学習(IRL)のレンズによる大規模言語モデル(LLM)のアライメントの進歩について概観する。
我々は、人間のデータからニューラル報酬モデルを構築する必要性を強調し、このパラダイムシフトの形式的および実践的意味について議論する。
論文 参考訳(メタデータ) (2025-07-17T14:22:24Z) - On the Opportunities of Large Language Models for Programming Process Data [6.023152721616896]
本稿では,大規模言語モデルを用いてプログラミングプロセスデータを解析する機会について論じる。
議論を補完するため、我々はLLMを利用してプログラミングプロセスを自動的に要約するケーススタディを概説した。
論文 参考訳(メタデータ) (2024-11-01T07:20:01Z) - Large Language Models in Computer Science Education: A Systematic Literature Review [7.240148550817106]
大規模言語モデル(LLM)は、幅広い自然言語処理タスク(NLP)において、ますます良くなっている。
最近、これらのモデルは、自然言語(NL)とプログラミング言語(PL)のギャップを埋めて、その能力をコーディングタスクに拡張した。
論文 参考訳(メタデータ) (2024-10-21T17:49:50Z) - Retrieval-Enhanced Machine Learning: Synthesis and Opportunities [60.34182805429511]
検索エンハンスメントは機械学習(ML)の幅広い範囲に拡張できる
この研究は、MLの様々な領域の文献を、現在の文献から欠落している一貫した表記で合成することで、このパラダイムの正式なフレームワークであるRetrieval-Enhanced Machine Learning (REML)を導入する。
本研究の目的は、様々な分野の研究者に対して、検索強化モデルの包括的、正式に構造化された枠組みを付与し、学際的な将来の研究を促進することである。
論文 参考訳(メタデータ) (2024-07-17T20:01:21Z) - Analyzing LLM Usage in an Advanced Computing Class in India [4.580708389528142]
本研究では,大規模言語モデル(LLM)を,大学院生や大学院生が高度なコンピューティングクラスにおけるプログラミング課題に活用することを検討した。
インド大学の分散システムクラスから411名の学生を対象に,総合的な分析を行った。
論文 参考訳(メタデータ) (2024-04-06T12:06:56Z) - CSEPrompts: A Benchmark of Introductory Computer Science Prompts [11.665831944836118]
AI、機械学習、NLPの最近の進歩は、新しい世代のLarge Language Models(LLM)の開発に繋がった。
商業的応用により、この技術は一般大衆に利用できるようになったため、学術的および専門的な目的のために高品質なテキストを作成するためにLLMを使用することが可能である。
学校や大学は、学生によるAI生成コンテンツの利用の増加に気づいており、この新しい技術とその潜在的な誤用の影響を調査している。
論文 参考訳(メタデータ) (2024-04-03T07:55:57Z) - Large Language Models for Education: A Survey and Outlook [69.02214694865229]
各視点の技術的進歩を体系的にレビューし、関連するデータセットとベンチマークを整理し、教育におけるLSMの展開に伴うリスクと課題を特定する。
本調査は、LLMの力を利用して教育実践を変革し、より効果的なパーソナライズされた学習環境を育むための、教育者、研究者、政策立案者のための総合的な技術図を提供することを目的とする。
論文 参考訳(メタデータ) (2024-03-26T21:04:29Z) - "Which LLM should I use?": Evaluating LLMs for tasks performed by Undergraduate Computer Science Students [2.6043678412433713]
本研究では,大学生に共通する作業における大規模言語モデル(LLM)の有効性を評価する。
私たちの研究は、Google Bard、ChatGPT(3.5)、GitHub Copilot Chat、Microsoft Copilot Chatなど、公開されているLLMのいくつかを体系的に評価しています。
論文 参考訳(メタデータ) (2024-01-22T15:11:36Z) - The Efficiency Spectrum of Large Language Models: An Algorithmic Survey [54.19942426544731]
LLM(Large Language Models)の急速な成長は、様々なドメインを変換する原動力となっている。
本稿では,LLMのエンドツーエンドのアルゴリズム開発に不可欠な多面的効率性について検討する。
論文 参考訳(メタデータ) (2023-12-01T16:00:25Z) - Instruction Tuning for Large Language Models: A Survey [52.86322823501338]
我々は、教師付き微調整(SFT)の一般的な方法論を含む、文献の体系的なレビューを行う。
また、既存の戦略の欠陥を指摘しながら、SFTの潜在的な落とし穴についても、それに対する批判とともに検討する。
論文 参考訳(メタデータ) (2023-08-21T15:35:16Z) - A Comprehensive Overview of Large Language Models [68.22178313875618]
大規模言語モデル(LLM)は、最近自然言語処理タスクにおいて顕著な機能を示した。
本稿では, LLM関連概念の幅広い範囲について, 既存の文献について概説する。
論文 参考訳(メタデータ) (2023-07-12T20:01:52Z) - Hierarchical Programmatic Reinforcement Learning via Learning to Compose
Programs [58.94569213396991]
プログラムポリシーを作成するための階層型プログラム強化学習フレームワークを提案する。
提案するフレームワークは,プログラム作成の学習を通じて,アウト・オブ・ディストリビュータの複雑な動作を記述するプログラムポリシーを作成することができる。
Karel ドメインの実験結果から,提案するフレームワークがベースラインより優れていることが示された。
論文 参考訳(メタデータ) (2023-01-30T14:50:46Z) - Application of Artificial Intelligence and Machine Learning in
Libraries: A Systematic Review [0.0]
本研究の目的は,図書館における人工知能と機械学習の適用を探求する実証研究の合成を提供することである。
データはWeb of Science, Scopus, LISA, LISTAデータベースから収集された。
LIS領域に関連するAIとML研究の現在の状況は、主に理論的な研究に焦点が当てられていることを示している。
論文 参考訳(メタデータ) (2021-12-06T07:33:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。