論文の概要: Embedding-Based Rankings of Educational Resources based on Learning Outcome Alignment: Benchmarking, Expert Validation, and Learner Performance
- arxiv url: http://arxiv.org/abs/2512.13658v1
- Date: Mon, 15 Dec 2025 18:51:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.816358
- Title: Embedding-Based Rankings of Educational Resources based on Learning Outcome Alignment: Benchmarking, Expert Validation, and Learner Performance
- Title(参考訳): 学習成果のアライメントに基づく教育資源の埋め込み型ランキング:ベンチマーク,エキスパート検証,学習者評価
- Authors: Mohammadreza Molavi, Mohammad Moein, Mohammadreza Tavakoli, Abdolali Faraji, Stefan T. Mol, Gábor Kismihók,
- Abstract要約: 大規模言語モデル(LLM)は、パーソナライゼーションをより良くサポートする学習リソースを作成する可能性への関心が高まっている。
本稿では,教育資源と意図した学習成果の整合性を評価するための費用対効果の自動化を支援する枠組みを提案する。
- 参考スコア(独自算出の注目度): 0.9236074230806578
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the online learning landscape evolves, the need for personalization is increasingly evident. Although educational resources are burgeoning, educators face challenges selecting materials that both align with intended learning outcomes and address diverse learner needs. Large Language Models (LLMs) are attracting growing interest for their potential to create learning resources that better support personalization, but verifying coverage of intended outcomes still requires human alignment review, which is costly and limits scalability. We propose a framework that supports the cost-effective automation of evaluating alignment between educational resources and intended learning outcomes. Using human-generated materials, we benchmarked LLM-based text-embedding models and found that the most accurate model (Voyage) achieved 79% accuracy in detecting alignment. We then applied the optimal model to LLM-generated resources and, via expert evaluation, confirmed that it reliably assessed correspondence to intended outcomes (83% accuracy). Finally, in a three-group experiment with 360 learners, higher alignment scores were positively related to greater learning performance, chi-squared(2, N = 360) = 15.39, p < 0.001. These findings show that embedding-based alignment scores can facilitate scalable personalization by confirming alignment with learning outcomes, which allows teachers to focus on tailoring content to diverse learner needs.
- Abstract(参考訳): オンライン学習の展望が発展するにつれて、パーソナライズの必要性はますます明白になっている。
教育資源は急成長しているが、教育者は意図した学習結果に合致し、多様な学習者のニーズに対処する素材を選択することの難しさに直面している。
大きな言語モデル(LLM)は、パーソナライゼーションをより良くサポートする学習リソースを作成する可能性への関心が高まっていますが、意図した結果のカバレッジを検証するには、費用がかかりスケーラビリティが制限される人によるアライメントレビューが必要です。
本稿では,教育資源と意図した学習成果の整合性を評価するための費用対効果の自動化を支援する枠組みを提案する。
人為的素材を用いてLCMベースのテキスト埋め込みモデルをベンチマークした結果,最も正確なモデル(Voyage)がアライメントの検出において79%の精度を達成した。
次に, LLM生成資源に最適モデルを適用し, 専門家による評価により, 意図した結果(精度83%)に対応することを確実に評価した。
最後に、360人の学習者による3群実験において、より高いアライメントスコアはより高い学習性能と正の相関を示し、chi-squared(2, N = 360) = 15.39, p < 0.001。
これらの結果から,組込み型アライメントスコアは,学習結果との整合性を確認することによって,スケーラブルなパーソナライズを容易にすることが示唆された。
関連論文リスト
- TutorBench: A Benchmark To Assess Tutoring Capabilities Of Large Language Models [10.963195858672627]
TutorBenchは、大規模言語モデル(LLM)のコアチューリングスキルを厳格に評価するために設計されたデータセットと評価ベンチマークである。
サンプルは、(i)学生の混乱に合わせた適応的な説明を生成すること、(ii)学生の作業に対して実行可能なフィードバックを提供すること、(iii)効果的なヒント生成を通じて活発な学習を促進すること、の3つの一般的な学習課題から抽出される。
我々はTutorBench上で16個のフロンティアLLMを評価し,その性能と挙動を詳細に解析した。
論文 参考訳(メタデータ) (2025-10-03T01:41:09Z) - Benchmarking Large Language Models for Personalized Guidance in AI-Enhanced Learning [4.990353320509215]
大規模言語モデル(LLM)は、パーソナライズされた学習のためのインテリジェントアシスタントとしてますます考えられている。
本研究では,現実的な学習環境を模擬した学習課題における3つの最先端LLMの実証的比較を行った。
論文 参考訳(メタデータ) (2025-09-02T14:21:59Z) - Cultivating Helpful, Personalized, and Creative AI Tutors: A Framework for Pedagogical Alignment using Reinforcement Learning [17.558663729465692]
EduAlignは、より大きな言語モデル(LLM)をより効果的で責任ある教育アシスタントへと導くために設計されたフレームワークである。
最初の段階では、8kの教育相互作用のデータセットをキュレートし、それらを手動でアノテートし、自動で3つの重要な教育次元:ヘルプフルネス、パーソナライゼーション、クリエイティビティの3つに分類する。
第2段階では、HPC-RMを報奨信号として利用し、2kの多様なプロンプトのセット上で、グループ相対ポリシー最適化(GRPO)を用いて事前学習したLLMを微調整する。
論文 参考訳(メタデータ) (2025-07-27T15:56:29Z) - Adaptive Learning Systems: Personalized Curriculum Design Using LLM-Powered Analytics [14.157213827899342]
大規模言語モデル(LLM)は、個々の学生のニーズに合わせてパーソナライズされた学習体験を可能にすることによって、教育分野に革命をもたらしている。
本稿では LLM を利用した分析を応用した適応学習システムのためのフレームワークについて紹介する。
論文 参考訳(メタデータ) (2025-07-25T04:36:17Z) - From Problem-Solving to Teaching Problem-Solving: Aligning LLMs with Pedagogy using Reinforcement Learning [82.50157695987558]
大規模言語モデル(LLM)は教育を変換することができるが、直接質問応答のための最適化はしばしば効果的な教育を損なう。
オンライン強化学習(RL)に基づくアライメントフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-21T15:00:07Z) - LLM-powered Multi-agent Framework for Goal-oriented Learning in Intelligent Tutoring System [54.71619734800526]
GenMentorは、ITS内で目標指向でパーソナライズされた学習を提供するために設計されたマルチエージェントフレームワークである。
学習者の目標を、カスタムのゴール・トゥ・スキルデータセットでトレーニングされた微調整LDMを使用して、必要なスキルにマッピングする。
GenMentorは、個々の学習者のニーズに合わせて探索・描画・統合機構で学習内容を調整する。
論文 参考訳(メタデータ) (2025-01-27T03:29:44Z) - KBAlign: Efficient Self Adaptation on Specific Knowledge Bases [73.34893326181046]
本稿では,効率的なモデル適応によりRAGシステムを強化する自己教師型フレームワークKBAlignを提案する。
私たちのキーとなる洞察は、2つの革新的なメカニズムを通じて、モデルの本質的な能力を知識の整合性に活用することです。
KBAlign は GPT-4 による適応によって得られる性能向上の90%を達成できることを示した。
論文 参考訳(メタデータ) (2024-11-22T08:21:03Z) - Evaluating Human Alignment and Model Faithfulness of LLM Rationale [66.75309523854476]
大規模言語モデル(LLM)が,その世代を理論的にどのように説明するかを考察する。
提案手法は帰属に基づく説明よりも「偽り」が少ないことを示す。
論文 参考訳(メタデータ) (2024-06-28T20:06:30Z) - Evaluating and Optimizing Educational Content with Large Language Model Judgments [52.33701672559594]
言語モデル(LM)を教育専門家として活用し,学習結果に対する様々な指導の影響を評価する。
本稿では,一方のLMが他方のLMの判断を報酬関数として利用して命令材料を生成する命令最適化手法を提案する。
ヒトの教師によるこれらのLM生成ワークシートの評価は、LM判定と人間の教師の嗜好との間に有意な整合性を示す。
論文 参考訳(メタデータ) (2024-03-05T09:09:15Z) - QuRating: Selecting High-Quality Data for Training Language Models [64.83332850645074]
データ品質に関する人間の直感をキャプチャできる事前学習データを選択するQuRatingを導入する。
本稿では,書体,専門知識,事実とトリビア,教育的価値の4つの特性について検討する。
ペアの判断からスカラー評価を学習するためにQurモデルをトレーニングし、それを4つの基準ごとに品質評価付き260Bのトレーニングコーパスにアノテートするために使用します。
論文 参考訳(メタデータ) (2024-02-15T06:36:07Z) - BAL: Balancing Diversity and Novelty for Active Learning [53.289700543331925]
多様な不確実なデータのバランスをとるために適応的なサブプールを構築する新しいフレームワークであるBalancing Active Learning (BAL)を導入する。
我々のアプローチは、広く認識されているベンチマークにおいて、確立されたすべてのアクティブな学習方法より1.20%優れています。
論文 参考訳(メタデータ) (2023-12-26T08:14:46Z) - Can We Trust AI-Generated Educational Content? Comparative Analysis of
Human and AI-Generated Learning Resources [4.528957284486784]
大規模言語モデル(LLMs)は、大規模に学習教材を迅速に作成する上で、有望なソリューションを提供するように見える。
学習指導活動の一環として,LLMが生み出す資源の質と学生が生み出す資源の質を比較した。
その結果、学生が認識するAI生成リソースの品質は、同僚が生成するリソースの品質と同等であることがわかった。
論文 参考訳(メタデータ) (2023-06-18T09:49:21Z) - Responsible Active Learning via Human-in-the-loop Peer Study [88.01358655203441]
我々は,データプライバシを同時に保持し,モデルの安定性を向上させるために,Pear Study Learning (PSL) と呼ばれる責任あるアクティブラーニング手法を提案する。
まず,クラウドサイドのタスク学習者(教師)から未学習データを分離する。
トレーニング中、タスク学習者は軽量なアクティブ学習者に指示し、アクティブサンプリング基準に対するフィードバックを提供する。
論文 参考訳(メタデータ) (2022-11-24T13:18:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。