論文の概要: AI tutoring can safely and effectively support students: An exploratory RCT in UK classrooms
- arxiv url: http://arxiv.org/abs/2512.23633v1
- Date: Mon, 29 Dec 2025 17:44:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.601433
- Title: AI tutoring can safely and effectively support students: An exploratory RCT in UK classrooms
- Title(参考訳): AI教育は学生を安全かつ効果的に支援できる:イギリスの教室における探索的RTT
- Authors: LearnLM Team, Eedi, :, Albert Wang, Aliya Rysbek, Andrea Huber, Anjali Nambiar, Anna Kenolty, Ben Caulfield, Beth Lilley-Draper, Bibi Groot, Brian Veprek, Chelsea Burdett, Claire Willis, Craig Barton, Digory Smith, George Mu, Harriet Walters, Irina Jurenka, Iris Hulls, James Stalley-Moores, Jonathan Caton, Julia Wilkowski, Kaiz Alarakyia, Kevin R. McKee, Liam McCafferty, Lucy Dalton, Markus Kunesch, Pauline Malubay, Rachel Kidson, Rich Wells, Sam Wheeler, Sara Wiltberger, Shakir Mohamed, Simon Woodhead, Vasco Brazão,
- Abstract要約: 1対1の授業はパーソナライズされた教育のための金の標準として広く考えられているが、スケールするのは違法に高価である。
英国の小学校5校を対象に,N = 165$の学生を対象にランダム化試験(RCT)を行った。
LearnLM – 教育用に微調整された生成AIモデル – を,Eedi数学プラットフォーム上でのチャットベースの学習セッションに統合しました。
- 参考スコア(独自算出の注目度): 3.1642777065752052
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One-to-one tutoring is widely considered the gold standard for personalized education, yet it remains prohibitively expensive to scale. To evaluate whether generative AI might help expand access to this resource, we conducted an exploratory randomized controlled trial (RCT) with $N = 165$ students across five UK secondary schools. We integrated LearnLM -- a generative AI model fine-tuned for pedagogy -- into chat-based tutoring sessions on the Eedi mathematics platform. In the RCT, expert tutors directly supervised LearnLM, with the remit to revise each message it drafted until they would be satisfied sending it themselves. LearnLM proved to be a reliable source of pedagogical instruction, with supervising tutors approving 76.4% of its drafted messages making zero or minimal edits (i.e., changing only one or two characters). This translated into effective tutoring support: students guided by LearnLM performed at least as well as students chatting with human tutors on each learning outcome we measured. In fact, students who received support from LearnLM were 5.5 percentage points more likely to solve novel problems on subsequent topics (with a success rate of 66.2%) than those who received tutoring from human tutors alone (rate of 60.7%). In interviews, tutors highlighted LearnLM's strength at drafting Socratic questions that encouraged deeper reflection from students, with multiple tutors even reporting that they learned new pedagogical practices from the model. Overall, our results suggest that pedagogically fine-tuned AI tutoring systems may play a promising role in delivering effective, individualized learning support at scale.
- Abstract(参考訳): 1対1の授業はパーソナライズされた教育のための金の標準として広く考えられているが、スケールするのは違法に高価である。
生成AIがこのリソースへのアクセスを拡大するのに役立つかどうかを評価するため、英国5つの中等学校を対象に、N = 165ドルの学生を対象に、探索的ランダム化制御試験(RCT)を行った。
LearnLM – 教育用に微調整された生成AIモデル – を,Eedi数学プラットフォーム上でのチャットベースの学習セッションに統合しました。
RCTでは、専門家の家庭教師がLearningLMを直接監督し、起草した各メッセージの修正を自力で行うように指示した。
LearnLMは教育指導の信頼性の高い情報源であることが証明され、教師は起草されたメッセージの76.4%をゼロか最小の編集(すなわち1文字か2文字だけの変更)で承認した。
このことは、LearnLMが指導した学生が、少なくとも、測定した各学習結果について、人間教師とチャットしている学生とともに、効果的な学習支援へと変換された。
実際、LearnLMから支援を受けた学生は、5.5パーセントが、その後の話題における新しい問題を解きやすい(成功率66.2%)。
インタヴューにおいて、教師はソクラテスの質問を起草する際のLearnLMの強みを強調し、複数の教師がモデルから新しい教育実践を学んだと報告した。
総合的な結果から, 教育的微調整型AI学習システムは, 大規模に効果的かつ個人化された学習支援を実現する上で, 有望な役割を担っている可能性が示唆された。
関連論文リスト
- Leveraging LLMs to Assess Tutor Moves in Real-Life Dialogues: A Feasibility Study [3.976073625291173]
数学における中学生を支援する大学学生遠隔教師の無作為に選択した50文字の解析を行った。
GPT-4, GPT-4o, GPT-4-turbo, Gemini-1.5-pro, LearnLM を用いて,教師の2つの指導スキルの適用性を評価する。
論文 参考訳(メタデータ) (2025-06-20T18:13:33Z) - From Problem-Solving to Teaching Problem-Solving: Aligning LLMs with Pedagogy using Reinforcement Learning [82.50157695987558]
大規模言語モデル(LLM)は教育を変換することができるが、直接質問応答のための最適化はしばしば効果的な教育を損なう。
オンライン強化学習(RL)に基づくアライメントフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-21T15:00:07Z) - Training LLM-based Tutors to Improve Student Learning Outcomes in Dialogues [46.60683274479208]
本稿では,大規模言語モデル(LLM)を訓練し,学生の正当性を最大化するチューター発話を生成する手法を提案する。
モデルにより生成された教師発話が,学生の正答率を著しく高めることを示す。
論文 参考訳(メタデータ) (2025-03-09T03:38:55Z) - Beyond Final Answers: Evaluating Large Language Models for Math Tutoring [0.24197860834245388]
本稿では,大規模言語モデル(LLM)の正しさと品質を評価するための2つの手法を提案する。
最初のアプローチは、LLM問題解決能力を評価するためのテストベッドとして、大学代数のためのインテリジェントなチュータリングシステムを使用する。
2つ目のアプローチは、LLMを問題解決者ではなく家庭教師として評価する。
論文 参考訳(メタデータ) (2025-02-23T15:43:45Z) - Embracing AI in Education: Understanding the Surge in Large Language Model Use by Secondary Students [53.20318273452059]
OpenAIのChatGPTのような大規模言語モデル(LLM)は、新しい教育の道を開いた。
学校制限にもかかわらず,中高生300人以上を対象に調査を行ったところ,学生の70%がLDMを利用していることがわかった。
我々は、対象特化モデル、パーソナライズドラーニング、AI教室など、このような問題に対処するいくつかのアイデアを提案する。
論文 参考訳(メタデータ) (2024-11-27T19:19:34Z) - Towards the Pedagogical Steering of Large Language Models for Tutoring: A Case Study with Modeling Productive Failure [36.83786872708736]
1対1の授業は、最も効果的な教育方法の1つである。
我々は、LSMプロンプトを最適化し、遷移グラフとして表される事前定義されたマルチターンチューリング計画に従うアルゴリズムであるStratLを開発した。
ケーススタディとして,先進的で効果的な学習設計であるProductive Failure (PF) に続く,高校数学のプロトタイプチューターを作成する。
論文 参考訳(メタデータ) (2024-10-03T16:15:41Z) - Exploring Knowledge Tracing in Tutor-Student Dialogues using LLMs [49.18567856499736]
本研究では,大規模言語モデル(LLM)が対話学習を支援することができるかどうかを検討する。
我々は,学習者の知識レベルを対話全体にわたって追跡するために,ラベル付きデータに知識追跡(KT)手法を適用した。
我々は,2つの学習対話データセットの実験を行い,従来のKT手法よりも学生の反応の正しさを予測できる新しいLCM-based method LLMKTが優れていることを示す。
論文 参考訳(メタデータ) (2024-09-24T22:31:39Z) - Integrating AI Tutors in a Programming Course [0.0]
RAGManはLLMベースのチューターシステムで、様々なコース特化および宿題特化AIチューターをサポートする。
本稿では,AI教師とのインタラクション,学生のフィードバック,および比較グレード分析について述べる。
論文 参考訳(メタデータ) (2024-07-14T00:42:39Z) - MathDial: A Dialogue Tutoring Dataset with Rich Pedagogical Properties
Grounded in Math Reasoning Problems [74.73881579517055]
そこで本稿では,一般学生の誤りを表現した大規模言語モデルを用いて,人間教師の対話を生成する枠組みを提案する。
このフレームワークを用いて3kの1対1の教師-学生対話のデータセットであるMathDialを収集する方法について述べる。
論文 参考訳(メタデータ) (2023-05-23T21:44:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。