論文の概要: A Practical Guide for Supporting Formative Assessment and Feedback Using Generative AI
- arxiv url: http://arxiv.org/abs/2505.23405v2
- Date: Mon, 02 Jun 2025 08:21:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-03 13:48:30.058476
- Title: A Practical Guide for Supporting Formative Assessment and Feedback Using Generative AI
- Title(参考訳): 生成AIを用いたフォーマティブアセスメントとフィードバック支援のための実践的ガイド
- Authors: Sapolnach Prompiengchai, Charith Narreddy, Steve Joordens,
- Abstract要約: 大規模言語モデル(LLM)は、学生、教師、同僚が「学習者が行く場所」、「学習者が現在いる場所」、「学習者を前進させる方法」を理解するのに役立つ。
本総説では,LSMを形式的評価に統合するための総合的な基盤を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Formative assessment is a cornerstone of effective teaching and learning, providing students with feedback to guide their learning. While there has been an exponential growth in the application of generative AI in scaling various aspects of formative assessment, ranging from automatic question generation to intelligent tutoring systems and personalized feedback, few have directly addressed the core pedagogical principles of formative assessment. Here, we critically examined how generative AI, especially large-language models (LLMs) such as ChatGPT, can support key components of formative assessment: helping students, teachers, and peers understand "where learners are going," "where learners currently are," and "how to move learners forward" in the learning process. With the rapid emergence of new prompting techniques and LLM capabilities, we also provide guiding principles for educators to effectively leverage cost-free LLMs in formative assessments while remaining grounded in pedagogical best practices. Furthermore, we reviewed the role of LLMs in generating feedback, highlighting limitations in current evaluation metrics that inadequately capture the nuances of formative feedback, such as distinguishing feedback at the task, process, and self-regulatory levels. Finally, we offer practical guidelines for educators and researchers, including concrete classroom strategies and future directions such as developing robust metrics to assess LLM-generated feedback, leveraging LLMs to overcome systemic and cultural barriers to formative assessment, and designing AI-aware assessment strategies that promote transferable skills while mitigating overreliance on LLM-generated responses. By structuring the discussion within an established formative assessment framework, this review provides a comprehensive foundation for integrating LLMs into formative assessment in a pedagogically informed manner.
- Abstract(参考訳): フォーマティブアセスメントは効果的な教育と学習の基礎であり、生徒に学習を指導するためのフィードバックを提供する。
自動質問生成からインテリジェントなチュータリングシステム、パーソナライズされたフィードバックに至るまで、フォーマティブアセスメントのさまざまな側面をスケールする上で、ジェネレーティブAIの適用が指数関数的に成長している一方で、フォーマティブアセスメントの中核的な原則に直接対処しているものはほとんどない。
そこで我々は,ChatGPTのような生成型AI,特に大規模言語モデル(LLM)が,学習プロセスにおいて,学生や教師,仲間が"学習者が行く場所","学習者が現在いる場所","学習者を前進させる方法"など,形式的評価の重要な要素をどのようにサポートするのかを,批判的に検討した。
新たなプロンプト技術とLLM能力の急速な台頭とともに、教育者は教育的ベストプラクティスに根ざしたまま、形式的評価においてコストフリーのLLMを効果的に活用するための指針も提供する。
さらに, フィードバック生成におけるLCMの役割を概観し, タスク, プロセス, 自己調節レベルにおけるフィードバックの識別など, 形式的フィードバックのニュアンスを適切に捉えていない現在の評価指標の限界を強調した。
最後に、具体的な教室戦略やLLM生成フィードバックを評価するための堅牢な指標の開発、LLMの体系的および文化的障壁を克服して形式的評価を行うためのLCMの活用、LLM生成応答への過度な依存を軽減しつつ、伝達可能なスキルを促進するAI対応評価戦略の策定など、研究者や研究者の実践的ガイドラインを提供する。
確立された形式的アセスメントフレームワーク内での議論を構造化することにより,LLMを形式的アセスメントに統合するための総合的な基盤を提供する。
関連論文リスト
- Training an LLM-as-a-Judge Model: Pipeline, Insights, and Practical Lessons [9.954960702259918]
本稿では,文脈認識評価を行うLLM(en:en:en:en:en:en:en:en:LLMs)ジャッジであるThemisを紹介する。
Themisの開発パイプラインの概要を概観し、シナリオに依存した評価プロンプトを強調します。
メタ評価のための人間ラベル付きベンチマークを2つ導入し、テミスが人間の嗜好を経済的に高度に調整できることを実証した。
論文 参考訳(メタデータ) (2025-02-05T08:35:55Z) - Unifying AI Tutor Evaluation: An Evaluation Taxonomy for Pedagogical Ability Assessment of LLM-Powered AI Tutors [7.834688858839734]
我々は,現在最先端の大規模言語モデル (LLM) がAI家庭教師として有効かどうかを検討する。
本研究では,キーラーニング科学の原則に基づく8つの教育次元を持つ統一的な評価分類法を提案する。
MRBench - 192の会話と1,596の回答を含む新しい評価ベンチマーク。
論文 参考訳(メタデータ) (2024-12-12T16:24:35Z) - Large Language Model as an Assignment Evaluator: Insights, Feedback, and Challenges in a 1000+ Student Course [49.296957552006226]
大規模言語モデル(LLM)を自動評価に用いることは,NLP研究において重要な評価手法となっている。
本報告では,1028人の大学生を対象に,GPT-4を自動課題評価装置として利用する方法について述べる。
論文 参考訳(メタデータ) (2024-07-07T00:17:24Z) - Enhancing LLM-Based Feedback: Insights from Intelligent Tutoring Systems and the Learning Sciences [0.0]
この研究は、ITSのフィードバック生成に関する以前の研究を通し、AIEDの研究を慎重に支援するものである。
本論文の主な貢献は次のとおりである。 生成AIの時代におけるフィードバック生成において、より慎重で理論的に基礎付けられた手法を適用すること。
論文 参考訳(メタデータ) (2024-05-07T20:09:18Z) - Evaluating and Optimizing Educational Content with Large Language Model Judgments [52.33701672559594]
言語モデル(LM)を教育専門家として活用し,学習結果に対する様々な指導の影響を評価する。
本稿では,一方のLMが他方のLMの判断を報酬関数として利用して命令材料を生成する命令最適化手法を提案する。
ヒトの教師によるこれらのLM生成ワークシートの評価は、LM判定と人間の教師の嗜好との間に有意な整合性を示す。
論文 参考訳(メタデータ) (2024-03-05T09:09:15Z) - MR-GSM8K: A Meta-Reasoning Benchmark for Large Language Model Evaluation [60.65820977963331]
大規模言語モデル(LLM)のための新しい評価パラダイムを導入する。
このパラダイムは、しばしば推論プロセスを無視する結果指向の評価から、より包括的な評価へと重点を移す。
GSM8Kデータセットにこのパラダイムを適用し,MR-GSM8Kベンチマークを開発した。
論文 参考訳(メタデータ) (2023-12-28T15:49:43Z) - Modelling Assessment Rubrics through Bayesian Networks: a Pragmatic Approach [40.06500618820166]
本稿では,学習者モデルを直接評価ルーリックから導出する手法を提案する。
本稿では,コンピュータ思考のスキルをテストするために開発された活動の人的評価を自動化するために,この手法を適用する方法について述べる。
論文 参考訳(メタデータ) (2022-09-07T10:09:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。