論文の概要: Embedding-Based Rankings of Educational Resources based on Learning Outcome Alignment: Benchmarking, Expert Validation, and Learner Performance
- arxiv url: http://arxiv.org/abs/2512.13658v1
- Date: Mon, 15 Dec 2025 18:51:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.816358
- Title: Embedding-Based Rankings of Educational Resources based on Learning Outcome Alignment: Benchmarking, Expert Validation, and Learner Performance
- Title(参考訳): 学習成果のアライメントに基づく教育資源の埋め込み型ランキング:ベンチマーク,エキスパート検証,学習者評価
- Authors: Mohammadreza Molavi, Mohammad Moein, Mohammadreza Tavakoli, Abdolali Faraji, Stefan T. Mol, Gábor Kismihók,
- Abstract要約: 大規模言語モデル(LLM)は、パーソナライゼーションをより良くサポートする学習リソースを作成する可能性への関心が高まっている。
本稿では,教育資源と意図した学習成果の整合性を評価するための費用対効果の自動化を支援する枠組みを提案する。
- 参考スコア(独自算出の注目度): 0.9236074230806578
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the online learning landscape evolves, the need for personalization is increasingly evident. Although educational resources are burgeoning, educators face challenges selecting materials that both align with intended learning outcomes and address diverse learner needs. Large Language Models (LLMs) are attracting growing interest for their potential to create learning resources that better support personalization, but verifying coverage of intended outcomes still requires human alignment review, which is costly and limits scalability. We propose a framework that supports the cost-effective automation of evaluating alignment between educational resources and intended learning outcomes. Using human-generated materials, we benchmarked LLM-based text-embedding models and found that the most accurate model (Voyage) achieved 79% accuracy in detecting alignment. We then applied the optimal model to LLM-generated resources and, via expert evaluation, confirmed that it reliably assessed correspondence to intended outcomes (83% accuracy). Finally, in a three-group experiment with 360 learners, higher alignment scores were positively related to greater learning performance, chi-squared(2, N = 360) = 15.39, p < 0.001. These findings show that embedding-based alignment scores can facilitate scalable personalization by confirming alignment with learning outcomes, which allows teachers to focus on tailoring content to diverse learner needs.
- Abstract(参考訳): オンライン学習の展望が発展するにつれて、パーソナライズの必要性はますます明白になっている。
教育資源は急成長しているが、教育者は意図した学習結果に合致し、多様な学習者のニーズに対処する素材を選択することの難しさに直面している。
大きな言語モデル(LLM)は、パーソナライゼーションをより良くサポートする学習リソースを作成する可能性への関心が高まっていますが、意図した結果のカバレッジを検証するには、費用がかかりスケーラビリティが制限される人によるアライメントレビューが必要です。
本稿では,教育資源と意図した学習成果の整合性を評価するための費用対効果の自動化を支援する枠組みを提案する。
人為的素材を用いてLCMベースのテキスト埋め込みモデルをベンチマークした結果,最も正確なモデル(Voyage)がアライメントの検出において79%の精度を達成した。
次に, LLM生成資源に最適モデルを適用し, 専門家による評価により, 意図した結果(精度83%)に対応することを確実に評価した。
最後に、360人の学習者による3群実験において、より高いアライメントスコアはより高い学習性能と正の相関を示し、chi-squared(2, N = 360) = 15.39, p < 0.001。
これらの結果から,組込み型アライメントスコアは,学習結果との整合性を確認することによって,スケーラブルなパーソナライズを容易にすることが示唆された。
関連論文リスト
- TutorBench: A Benchmark To Assess Tutoring Capabilities Of Large Language Models [10.963195858672627]
TutorBenchは、大規模言語モデル(LLM)のコアチューリングスキルを厳格に評価するために設計されたデータセットと評価ベンチマークである。
サンプルは、(i)学生の混乱に合わせた適応的な説明を生成すること、(ii)学生の作業に対して実行可能なフィードバックを提供すること、(iii)効果的なヒント生成を通じて活発な学習を促進すること、の3つの一般的な学習課題から抽出される。
我々はTutorBench上で16個のフロンティアLLMを評価し,その性能と挙動を詳細に解析した。
論文 参考訳(メタデータ) (2025-10-03T01:41:09Z) - Benchmarking Large Language Models for Personalized Guidance in AI-Enhanced Learning [4.990353320509215]
大規模言語モデル(LLM)は、パーソナライズされた学習のためのインテリジェントアシスタントとしてますます考えられている。
本研究では,現実的な学習環境を模擬した学習課題における3つの最先端LLMの実証的比較を行った。
論文 参考訳(メタデータ) (2025-09-02T14:21:59Z) - Adaptive Learning Systems: Personalized Curriculum Design Using LLM-Powered Analytics [14.157213827899342]
大規模言語モデル(LLM)は、個々の学生のニーズに合わせてパーソナライズされた学習体験を可能にすることによって、教育分野に革命をもたらしている。
本稿では LLM を利用した分析を応用した適応学習システムのためのフレームワークについて紹介する。
論文 参考訳(メタデータ) (2025-07-25T04:36:17Z) - LLM-powered Multi-agent Framework for Goal-oriented Learning in Intelligent Tutoring System [54.71619734800526]
GenMentorは、ITS内で目標指向でパーソナライズされた学習を提供するために設計されたマルチエージェントフレームワークである。
学習者の目標を、カスタムのゴール・トゥ・スキルデータセットでトレーニングされた微調整LDMを使用して、必要なスキルにマッピングする。
GenMentorは、個々の学習者のニーズに合わせて探索・描画・統合機構で学習内容を調整する。
論文 参考訳(メタデータ) (2025-01-27T03:29:44Z) - KBAlign: Efficient Self Adaptation on Specific Knowledge Bases [73.34893326181046]
本稿では,効率的なモデル適応によりRAGシステムを強化する自己教師型フレームワークKBAlignを提案する。
私たちのキーとなる洞察は、2つの革新的なメカニズムを通じて、モデルの本質的な能力を知識の整合性に活用することです。
KBAlign は GPT-4 による適応によって得られる性能向上の90%を達成できることを示した。
論文 参考訳(メタデータ) (2024-11-22T08:21:03Z) - Evaluating and Optimizing Educational Content with Large Language Model Judgments [52.33701672559594]
言語モデル(LM)を教育専門家として活用し,学習結果に対する様々な指導の影響を評価する。
本稿では,一方のLMが他方のLMの判断を報酬関数として利用して命令材料を生成する命令最適化手法を提案する。
ヒトの教師によるこれらのLM生成ワークシートの評価は、LM判定と人間の教師の嗜好との間に有意な整合性を示す。
論文 参考訳(メタデータ) (2024-03-05T09:09:15Z) - QuRating: Selecting High-Quality Data for Training Language Models [64.83332850645074]
データ品質に関する人間の直感をキャプチャできる事前学習データを選択するQuRatingを導入する。
本稿では,書体,専門知識,事実とトリビア,教育的価値の4つの特性について検討する。
ペアの判断からスカラー評価を学習するためにQurモデルをトレーニングし、それを4つの基準ごとに品質評価付き260Bのトレーニングコーパスにアノテートするために使用します。
論文 参考訳(メタデータ) (2024-02-15T06:36:07Z) - Can We Trust AI-Generated Educational Content? Comparative Analysis of
Human and AI-Generated Learning Resources [4.528957284486784]
大規模言語モデル(LLMs)は、大規模に学習教材を迅速に作成する上で、有望なソリューションを提供するように見える。
学習指導活動の一環として,LLMが生み出す資源の質と学生が生み出す資源の質を比較した。
その結果、学生が認識するAI生成リソースの品質は、同僚が生成するリソースの品質と同等であることがわかった。
論文 参考訳(メタデータ) (2023-06-18T09:49:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。