論文の概要: Personalized and Constructive Feedback for Computer Science Students Using the Large Language Model (LLM)
- arxiv url: http://arxiv.org/abs/2510.11556v1
- Date: Mon, 13 Oct 2025 15:59:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.442199
- Title: Personalized and Constructive Feedback for Computer Science Students Using the Large Language Model (LLM)
- Title(参考訳): 大規模言語モデル(LLM)を用いたコンピュータサイエンス学生のパーソナライズと構成的フィードバック
- Authors: Javed Ali Khan, Muhammad Yaqoob, Mamoona Tasadduq, Hafsa Shareef Dar, Aitezaz Ahsan,
- Abstract要約: 本稿では,学生評価における言語モデル(LLM)の性能について,事前に定義されたルーリックとマーキング基準を用いて検討する。
我々は,既存のLCMによるマーキングアセスメント,追跡,評価(LLM-MATE)の力を活用して,学生の学習を促進することを目的としている。
- 参考スコア(独自算出の注目度): 0.8409304328108455
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The evolving pedagogy paradigms are leading toward educational transformations. One fundamental aspect of effective learning is relevant, immediate, and constructive feedback to students. Providing constructive feedback to large cohorts in academia is an ongoing challenge. Therefore, academics are moving towards automated assessment to provide immediate feedback. However, current approaches are often limited in scope, offering simplistic responses that do not provide students with personalized feedback to guide them toward improvements. This paper addresses this limitation by investigating the performance of Large Language Models (LLMs) in processing students assessments with predefined rubrics and marking criteria to generate personalized feedback for in-depth learning. We aim to leverage the power of existing LLMs for Marking Assessments, Tracking, and Evaluation (LLM-MATE) with personalized feedback to enhance students learning. To evaluate the performance of LLM-MATE, we consider the Software Architecture (SA) module as a case study. The LLM-MATE approach can help module leaders overcome assessment challenges with large cohorts. Also, it helps students improve their learning by obtaining personalized feedback in a timely manner. Additionally, the proposed approach will facilitate the establishment of ground truth for automating the generation of students assessment feedback using the ChatGPT API, thereby reducing the overhead associated with large cohort assessments.
- Abstract(参考訳): 進化する教育パラダイムは、教育変革に向かっています。
効果的な学習の基本的な側面は、学生に関係があり、即時的で建設的なフィードバックである。
アカデミックにおける大規模なコホートに対する建設的なフィードバックの提供は、現在進行中の課題である。
そのため、研究者は即時フィードバックを提供するために自動評価に向かっている。
しかし、現在のアプローチはスコープに限られており、生徒にパーソナライズされたフィードバックを提供しない簡易な応答を提供して改善に向けて導く。
本稿では,事前定義されたルーリックを用いて学生評価を処理し,詳細な学習にパーソナライズされたフィードバックを生成するためのマーキング基準について,LLM(Large Language Models)の性能を調査することによって,この制限に対処する。
我々は,既存のLCMによるマーキングアセスメント,追跡,評価(LLM-MATE)の力を活用して,学生の学習を促進することを目的としている。
LLM-MATEの性能を評価するために,ソフトウェアアーキテクチャ(SA)モジュールをケーススタディとする。
LLM-MATEアプローチは、モジュールリーダが大規模なコホートによる評価課題を克服するのに役立つ。
また、タイムリーな方法でパーソナライズされたフィードバックを得ることで、生徒の学習改善を支援する。
さらに,提案手法は,ChatGPT APIを用いた学生評価フィードバックの自動生成のための基礎的真理の確立を促進し,大規模なコホート評価に伴うオーバーヘッドを軽減する。
関連論文リスト
- Partnering with AI: A Pedagogical Feedback System for LLM Integration into Programming Education [21.37197118335639]
本稿では,大規模言語モデル(LLM)によるフィードバック生成のための新しいフレームワークを提案する。
本研究は, 教員が枠組みに整合すると, LLMが学生を効果的に支援できると考えていることを示唆する。
しかし、動的な教室環境にフィードバックを適応できないなど、いくつかの制限があった。
論文 参考訳(メタデータ) (2025-07-01T03:48:48Z) - A Practical Guide for Supporting Formative Assessment and Feedback Using Generative AI [0.0]
大規模言語モデル(LLM)は、学生、教師、同僚が「学習者が行く場所」、「学習者が現在いる場所」、「学習者を前進させる方法」を理解するのに役立つ。
本総説では,LSMを形式的評価に統合するための総合的な基盤を提供する。
論文 参考訳(メタデータ) (2025-05-29T12:52:43Z) - Closing the Loop: Learning to Generate Writing Feedback via Language Model Simulated Student Revisions [6.216542656489173]
本稿では,LM シミュレーションによる学生のリビジョンの学習を通じてフィードバックを生成できる ProF を提案する。
本稿では,PROFの有効性を実証的に検証し,本手法が学生の筆跡改善に有効であることを示す。
論文 参考訳(メタデータ) (2024-10-10T15:52:48Z) - Large Language Model as an Assignment Evaluator: Insights, Feedback, and Challenges in a 1000+ Student Course [49.296957552006226]
大規模言語モデル(LLM)を自動評価に用いることは,NLP研究において重要な評価手法となっている。
本報告では,1028人の大学生を対象に,GPT-4を自動課題評価装置として利用する方法について述べる。
論文 参考訳(メタデータ) (2024-07-07T00:17:24Z) - Evaluating and Optimizing Educational Content with Large Language Model Judgments [52.33701672559594]
言語モデル(LM)を教育専門家として活用し,学習結果に対する様々な指導の影響を評価する。
本稿では,一方のLMが他方のLMの判断を報酬関数として利用して命令材料を生成する命令最適化手法を提案する。
ヒトの教師によるこれらのLM生成ワークシートの評価は、LM判定と人間の教師の嗜好との間に有意な整合性を示す。
論文 参考訳(メタデータ) (2024-03-05T09:09:15Z) - Improving the Validity of Automatically Generated Feedback via Reinforcement Learning [46.667783153759636]
強化学習(RL)を用いた正当性と整合性の両方を最適化するフィードバック生成フレームワークを提案する。
具体的には、直接選好最適化(DPO)によるトレーニングのための拡張データセットにおいて、GPT-4のアノテーションを使用してフィードバックペアよりも好みを生成する。
論文 参考訳(メタデータ) (2024-03-02T20:25:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。