論文の概要: Partnering with AI: A Pedagogical Feedback System for LLM Integration into Programming Education
- arxiv url: http://arxiv.org/abs/2507.00406v1
- Date: Tue, 01 Jul 2025 03:48:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:59.260112
- Title: Partnering with AI: A Pedagogical Feedback System for LLM Integration into Programming Education
- Title(参考訳): AIとのパートナリング:プログラミング教育へのLLM統合のための教育的フィードバックシステム
- Authors: Niklas Scholz, Manh Hung Nguyen, Adish Singla, Tomohiro Nagashima,
- Abstract要約: 本稿では,大規模言語モデル(LLM)によるフィードバック生成のための新しいフレームワークを提案する。
本研究は, 教員が枠組みに整合すると, LLMが学生を効果的に支援できると考えていることを示唆する。
しかし、動的な教室環境にフィードバックを適応できないなど、いくつかの制限があった。
- 参考スコア(独自算出の注目度): 19.441958600393342
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Feedback is one of the most crucial components to facilitate effective learning. With the rise of large language models (LLMs) in recent years, research in programming education has increasingly focused on automated feedback generation to help teachers provide timely support to every student. However, prior studies often overlook key pedagogical principles, such as mastery and progress adaptation, that shape effective feedback strategies. This paper introduces a novel pedagogical framework for LLM-driven feedback generation derived from established feedback models and local insights from secondary school teachers. To evaluate this framework, we implemented a web-based application for Python programming with LLM-based feedback that follows the framework and conducted a mixed-method evaluation with eight secondary-school computer science teachers. Our findings suggest that teachers consider that, when aligned with the framework, LLMs can effectively support students and even outperform human teachers in certain scenarios through instant and precise feedback. However, we also found several limitations, such as its inability to adapt feedback to dynamic classroom contexts. Such a limitation highlights the need to complement LLM-generated feedback with human expertise to ensure effective student learning. This work demonstrates an effective way to use LLMs for feedback while adhering to pedagogical standards and highlights important considerations for future systems.
- Abstract(参考訳): フィードバックは効果的な学習を促進する上で最も重要な要素のひとつです。
近年の大規模言語モデル(LLM)の台頭に伴い、プログラミング教育の研究は、教師がすべての生徒にタイムリーなサポートを提供するのを助けるために、自動フィードバック生成に重点を置いている。
しかし、先行研究はしばしば、効果的なフィードバック戦略を形成する熟達や進歩適応といった重要な教育原則を見落としている。
本稿では,中等教育教師の確立したフィードバックモデルと局所的な洞察をもとに,LLMによるフィードバック生成のための新たな教育的枠組みを提案する。
このフレームワークを評価するために,LLMに基づくフィードバックを用いたWebベースのPythonプログラミングアプリケーションを実装し,中等教育のコンピュータサイエンス教師8人と混合手法による評価を行った。
以上の結果から,LLMは学生を効果的に支援し,即時的かつ高精度なフィードバックによって,特定のシナリオにおける人間教師よりも優れると考えられることが示唆された。
しかし、動的な教室の文脈にフィードバックを適応できないなど、いくつかの制限も見いだされた。
このような制限は、LLMの生成したフィードバックを人間の専門知識で補完し、効果的な学生学習を保証する必要性を強調している。
本研究は,教育標準に固執しつつ,LLMをフィードバックに活用する効果的な方法を示し,今後のシステムに対する重要な考察を強調する。
関連論文リスト
- Improving Student-AI Interaction Through Pedagogical Prompting: An Example in Computer Science Education [1.1517315048749441]
大規模言語モデル(LLM)アプリケーションは、興奮と懸念の両方を引き起こした。
最近の研究は、LLMの誤用が学習の妨げとなることを一貫して強調している。
本研究の目的は,LLMの学習改善を効果的に促進する方法を学生に教えることである。
論文 参考訳(メタデータ) (2025-06-23T20:39:17Z) - A Practical Guide for Supporting Formative Assessment and Feedback Using Generative AI [0.0]
大規模言語モデル(LLM)は、学生、教師、同僚が「学習者が行く場所」、「学習者が現在いる場所」、「学習者を前進させる方法」を理解するのに役立つ。
本総説では,LSMを形式的評価に統合するための総合的な基盤を提供する。
論文 参考訳(メタデータ) (2025-05-29T12:52:43Z) - From Problem-Solving to Teaching Problem-Solving: Aligning LLMs with Pedagogy using Reinforcement Learning [76.09281171131941]
大規模言語モデル(LLM)は教育を変換することができるが、直接質問応答のための最適化はしばしば効果的な教育を損なう。
オンライン強化学習(RL)に基づくアライメントフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-21T15:00:07Z) - Evaluating and Optimizing Educational Content with Large Language Model Judgments [52.33701672559594]
言語モデル(LM)を教育専門家として活用し,学習結果に対する様々な指導の影響を評価する。
本稿では,一方のLMが他方のLMの判断を報酬関数として利用して命令材料を生成する命令最適化手法を提案する。
ヒトの教師によるこれらのLM生成ワークシートの評価は、LM判定と人間の教師の嗜好との間に有意な整合性を示す。
論文 参考訳(メタデータ) (2024-03-05T09:09:15Z) - Improving the Validity of Automatically Generated Feedback via Reinforcement Learning [46.667783153759636]
強化学習(RL)を用いた正当性と整合性の両方を最適化するフィードバック生成フレームワークを提案する。
具体的には、直接選好最適化(DPO)によるトレーニングのための拡張データセットにおいて、GPT-4のアノテーションを使用してフィードバックペアよりも好みを生成する。
論文 参考訳(メタデータ) (2024-03-02T20:25:50Z) - AutoTutor meets Large Language Models: A Language Model Tutor with Rich Pedagogy and Guardrails [43.19453208130667]
大規模言語モデル(LLM)は、自動質問生成からエッセイ評価まで、いくつかのユースケースを教育で発見した。
本稿では,Large Language Models (LLMs) を用いて知的チューリングシステムを構築する可能性について検討する。
MWPTutor は LLM を用いて事前定義された有限状態トランスデューサの状態空間を補う。
論文 参考訳(メタデータ) (2024-02-14T14:53:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。