論文の概要: Classroom AI: Large Language Models as Grade-Specific Teachers
- arxiv url: http://arxiv.org/abs/2601.06225v1
- Date: Fri, 09 Jan 2026 08:58:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.698373
- Title: Classroom AI: Large Language Models as Grade-Specific Teachers
- Title(参考訳): クラスルームAI: 上級教師としての大規模言語モデル
- Authors: Jio Oh, Steven Euijong Whang, James Evans, Jindong Wang,
- Abstract要約: 大型言語モデル (LLMs) は、異なる教育レベルの学生に対して、グレードに適した応答を提供することができない。
本研究では,LLMを微調整し,年齢に合った教育コンテンツを6段階にわたって生成する枠組みを提案する。
本枠組みは, 事実の正しさを犠牲にすることなく, 生徒の理解能力に合致する説明をうまく適応させる。
- 参考スコア(独自算出の注目度): 23.888870150938647
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) offer a promising solution to complement traditional teaching and address global teacher shortages that affect hundreds of millions of children, but they fail to provide grade-appropriate responses for students at different educational levels. We introduce a framework for finetuning LLMs to generate age-appropriate educational content across six grade levels, from lower elementary to adult education. Our framework successfully adapts explanations to match students' comprehension capacities without sacrificing factual correctness. This approach integrates seven established readability metrics through a clustering method and builds a comprehensive dataset for grade-specific content generation. Evaluations across multiple datasets with 208 human participants demonstrate substantial improvements in grade-level alignment, achieving a 35.64 percentage point increase compared to prompt-based methods while maintaining response accuracy. AI-assisted learning tailored to different grade levels has the potential to advance educational engagement and equity.
- Abstract(参考訳): 大規模言語モデル(LLMs)は、伝統的な教育を補完し、数億人の子供に影響を与える世界的な教師不足に対処する有望な解決策を提供するが、異なる教育レベルの学生に適切な対応を提供しない。
本研究では,低学年から成人教育までの6段階にわたって,LSMを微調整し,年齢に合った教育内容を生成する枠組みを提案する。
本枠組みは, 事実の正しさを犠牲にすることなく, 生徒の理解能力に合致する説明をうまく適応させる。
このアプローチは、クラスタリングメソッドを通じて確立された7つの可読性メトリクスを統合し、グレード固有のコンテンツ生成のための包括的なデータセットを構築する。
208人の参加者による複数のデータセットに対する評価は、応答精度を維持しながら、プロンプトベースの手法と比較して35.64ポイント向上し、グレードレベルのアライメントを大幅に改善した。
異なる学級に合わせたAI支援学習は、教育的エンゲージメントとエクイティを向上する可能性がある。
関連論文リスト
- EduAdapt: A Question Answer Benchmark Dataset for Evaluating Grade-Level Adaptability in LLMs [29.719441118059645]
大規模言語モデル(LLM)は、質問に答え、複雑な概念を説明し、幅広い主題にまたがるコンテンツを生成することによって、教育を変革している。
学術ベンチマークのパフォーマンスは高いが、学生の成績に反応しないことが多い。
これは、年齢に適した語彙と説明が効果的な学習に不可欠であるK-12教育において重要なニーズである。
エドゥアダプ(EduAdapt)は、9つの科学科目を対象に、48k近いグレードラベル付きQAペアのベンチマークであり、グレード1-12にまたがって4つのグレードにグループ化されている。
論文 参考訳(メタデータ) (2025-10-20T10:30:40Z) - EduDial: Constructing a Large-scale Multi-turn Teacher-Student Dialogue Corpus [59.693733170193944]
EduDialは総合的な多ターン教師/学生対話データセットである。
EduDialは345のコアナレッジポイントをカバーし、教師と学生エージェントの対話によって生成された34,250の対話セッションで構成されている。
論文 参考訳(メタデータ) (2025-10-14T18:18:43Z) - Instructional Goal-Aligned Question Generation for Student Evaluation in Virtual Lab Settings: How Closely Do LLMs Actually Align? [2.374216763355153]
本稿では,目標整合型質問生成のための新しいアライメントフレームワークを提案する。
教師-LLM対話による指導目標理解、知識単位と関係分析による研究室理解、認知と教育の意図を構造化するための質問分類学、そして迅速な詳細制御のためのTELeR分類学を統合する。
論文 参考訳(メタデータ) (2025-10-07T19:44:15Z) - TeachLM: Post-Training LLMs for Education Using Authentic Learning Data [4.600044635815686]
TeachLMは、パラメータ効率の良い最先端モデルの微調整を用いた教育に最適化された大きな言語モデルである。
パラメータ効率のよい微調整を用いて,高忠実度合成学生と教師の対話を生成できる真正な学生モデルを構築する。
本評価は,学習データの微調整が会話や教育のパフォーマンスを著しく向上させることを示す。
論文 参考訳(メタデータ) (2025-10-06T17:55:04Z) - Benchmarking the Pedagogical Knowledge of Large Language Models [4.417539128489408]
本稿では,その教育的知識に基づいて,大規模言語モデルを評価するための新しいデータセットであるThe Pedagogy Benchmarkを紹介する。
これらのベンチマークは、教師のための専門的開発試験から得られた、慎重にキュレートされた質問に基づいて構築されている。
本報告では, 教育的知識に関する質問に対して, 精度が28%から89%の範囲で, 97モデルの結果を報告する。
論文 参考訳(メタデータ) (2025-06-23T14:49:01Z) - Embracing AI in Education: Understanding the Surge in Large Language Model Use by Secondary Students [53.20318273452059]
OpenAIのChatGPTのような大規模言語モデル(LLM)は、新しい教育の道を開いた。
学校制限にもかかわらず,中高生300人以上を対象に調査を行ったところ,学生の70%がLDMを利用していることがわかった。
我々は、対象特化モデル、パーソナライズドラーニング、AI教室など、このような問題に対処するいくつかのアイデアを提案する。
論文 参考訳(メタデータ) (2024-11-27T19:19:34Z) - Speculative Knowledge Distillation: Bridging the Teacher-Student Gap Through Interleaved Sampling [81.00825302340984]
本研究では,高品質なトレーニングデータを生成するために,投機的知識蒸留(SKD)を導入する。
SKDでは、学生はトークンを提案し、教師はそれ自身の分布に基づいて低いランクのトークンを置き換える。
翻訳,要約,数学,指示文など,各種テキスト生成タスクにおけるSKDの評価を行った。
論文 参考訳(メタデータ) (2024-10-15T06:51:25Z) - YODA: Teacher-Student Progressive Learning for Language Models [82.0172215948963]
本稿では,教師が指導するプログレッシブ・ラーニング・フレームワークであるYodaを紹介する。
モデルファインチューニングの有効性を向上させるために,教師の教育過程をエミュレートする。
実験の結果, YODAのデータによるLLaMA2のトレーニングにより, SFTは大幅に向上した。
論文 参考訳(メタデータ) (2024-01-28T14:32:15Z) - MOCHA: A Dataset for Training and Evaluating Generative Reading
Comprehension Metrics [55.85042753772513]
そこで本研究では,生成的読解の指標であるModeling Correctness with Humanをトレーニングし,評価するためのベンチマークを提案する。
S
我々は,MOCHAを用いて,人間の判断スコアを模倣する学習評価尺度LERCを訓練する。
最小のペアで評価すると、LERCは80%の精度でベースラインを14から26の絶対パーセンテージポイントで上回り、改善の余地は大きい。
論文 参考訳(メタデータ) (2020-10-07T20:22:54Z) - Enhancing Dialogue Generation via Multi-Level Contrastive Learning [57.005432249952406]
質問に対する応答のきめ細かい品質をモデル化するマルチレベルコントラスト学習パラダイムを提案する。
Rank-aware (RC) ネットワークはマルチレベルコントラスト最適化の目的を構築するために設計されている。
本研究では,知識推論(KI)コンポーネントを構築し,学習中の参照からキーワードの知識を抽出し,そのような情報を活用して情報的単語の生成を促す。
論文 参考訳(メタデータ) (2020-09-19T02:41:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。