論文の概要: Teaching According to Students' Aptitude: Personalized Mathematics Tutoring via Persona-, Memory-, and Forgetting-Aware LLMs
- arxiv url: http://arxiv.org/abs/2511.15163v1
- Date: Wed, 19 Nov 2025 06:28:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.659912
- Title: Teaching According to Students' Aptitude: Personalized Mathematics Tutoring via Persona-, Memory-, and Forgetting-Aware LLMs
- Title(参考訳): 学生の適性による指導:ペルソナ・メモリ・フォーミングによる個人化数学指導
- Authors: Yang Wu, Rujing Yao, Tong Zhang, Yufei Shi, Zhuoren Jiang, Zhushan Li, Xiaozhong Liu,
- Abstract要約: 我々は,ペルソナ,記憶,ダイナミクスを取り入れた学習支援フレームワークであるTAS(Teaching Based by Students' Aptitude)を提案する。
具体的には、TASAは、熟練度プロファイルをキャプチャする構造化された学生ペルソナと、事前学習インタラクションを記録するイベントメモリを維持している。
TASAは、学習者の熟達状態を動的に更新し、文脈的に適切で難解な質問や説明を生成する。
- 参考スコア(独自算出の注目度): 28.594039597149266
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are increasingly integrated into intelligent tutoring systems to provide human-like and adaptive instruction. However, most existing approaches fail to capture how students' knowledge evolves dynamically across their proficiencies, conceptual gaps, and forgetting patterns. This challenge is particularly acute in mathematics tutoring, where effective instruction requires fine-grained scaffolding precisely calibrated to each student's mastery level and cognitive retention. To address this issue, we propose TASA (Teaching According to Students' Aptitude), a student-aware tutoring framework that integrates persona, memory, and forgetting dynamics for personalized mathematics learning. Specifically, TASA maintains a structured student persona capturing proficiency profiles and an event memory recording prior learning interactions. By incorporating a continuous forgetting curve with knowledge tracing, TASA dynamically updates each student's mastery state and generates contextually appropriate, difficulty-calibrated questions and explanations. Empirical results demonstrate that TASA achieves superior learning outcomes and more adaptive tutoring behavior compared to representative baselines, underscoring the importance of modeling temporal forgetting and learner profiles in LLM-based tutoring systems.
- Abstract(参考訳): 大規模言語モデル(LLM)は、人間らしく適応的な命令を提供するために、インテリジェントな学習システムに統合されつつある。
しかし、既存のほとんどのアプローチは、生徒の知識が能力、概念的ギャップ、そしてパターンを忘れながら動的に進化していく様子を捉えていない。
この課題は数学のチュータリングにおいて特に深刻であり、実効的な指導には各生徒の熟達度と認知的保持度に正確に調整されたきめ細かな足場が必要である。
この問題に対処するため,本研究では,パーソナライズされた数学学習のためのペルソナ,記憶,ダイナミクスを取り入れた学習支援フレームワークであるTAS(Teaching According by Students' Aptitude)を提案する。
具体的には、TASAは、熟練度プロファイルをキャプチャする構造化された学生ペルソナと、事前学習インタラクションを記録するイベントメモリを維持している。
TASAは、学習者の熟達状態を動的に更新し、文脈的に適切で難解な質問や説明を生成する。
実験的な結果から,TASは,LLMベースの学習システムにおいて,時間的忘れと学習者のプロファイルをモデル化することの重要性を強調し,代表的ベースラインよりも優れた学習結果と適応的な学習行動を実現することが示された。
関連論文リスト
- UCO: A Multi-Turn Interactive Reinforcement Learning Method for Adaptive Teaching with Large Language Models [59.693733170193944]
大規模言語モデル(LLM)は、教育環境において、回答提供者からインテリジェントな家庭教師へとシフトしている。
最近の強化学習アプローチはこの制限に対処するが、2つの重要な課題に直面している。
これらの課題に対処するために一方向認知最適化法(UCO)を提案する。
論文 参考訳(メタデータ) (2025-11-12T01:27:02Z) - The Imperfect Learner: Incorporating Developmental Trajectories in Memory-based Student Simulation [55.722188569369656]
本稿では,メモリベースの学生シミュレーションのための新しいフレームワークを提案する。
構造的知識表現を備えた階層記憶機構を通じて発達軌道を組み込む。
実際に,次世代科学標準に基づくカリキュラム・アライン・シミュレータを実装した。
論文 参考訳(メタデータ) (2025-11-08T08:05:43Z) - Investigating Pedagogical Teacher and Student LLM Agents: Genetic Adaptation Meets Retrieval Augmented Generation Across Learning Style [16.985943868964394]
効果的な教育には、学生の多様な認知的・行動的プロファイルに対応するために教育戦略を適用する必要がある。
本稿では,異種学生エージェントを自己最適化型教師エージェントと統合する新しいシミュレーションフレームワークを提案する。
本研究は,データ駆動環境下での人間教育者を訓練するためのテストベッドの提供を目的として,LLMによるシミュレーションの可能性を強調した。
論文 参考訳(メタデータ) (2025-05-25T14:45:35Z) - One Size doesn't Fit All: A Personalized Conversational Tutoring Agent for Mathematics Instruction [23.0134120158482]
数学教育のためのtextbfPersontextbfAlized textbfConversational tutoring agtextbfEnt (PACE) を提案する。
PACEは、各生徒のペルソナに合わせて、フェーダーとシルバーマンの学習スタイルモデルに基づいて、生徒の学習スタイルをシミュレートする。
学生の理解を深めるために、PACEはソクラテス教育法を用いて即時フィードバックを提供し、深い思考を促進する。
論文 参考訳(メタデータ) (2025-02-18T08:24:52Z) - Dynamic Skill Adaptation for Large Language Models [78.31322532135272]
動的スキル適応(Dynamic Skill Adaptation, DSA)は, 言語モデル(LLM)に新しい複雑なスキルを適応させる適応的かつ動的フレームワークである。
各スキルに対して,学習前スキルの詳細な記述を含む教科書的データと,学習前スキルの具体的活用を目標とした演習的データの両方を生成する。
LLAMA や Mistral のような大規模言語モデルを用いた実験は,提案手法が数学推論スキルや社会学習スキルに適応する上で有効であることを示す。
論文 参考訳(メタデータ) (2024-12-26T22:04:23Z) - Personality-aware Student Simulation for Conversational Intelligent Tutoring Systems [34.760230622675365]
Intelligent Tutoring Systems(ITS)は、パーソナライズされたセルフペースの学習体験を提供する。
大規模言語モデル(LLM)の出現により、より優れた人間と機械の相互作用が可能になる。
LLMは、与えられた言語能力と性格特性に応じて、多様な学生の反応を生成することができる。
論文 参考訳(メタデータ) (2024-04-10T06:03:13Z) - YODA: Teacher-Student Progressive Learning for Language Models [82.0172215948963]
本稿では,教師が指導するプログレッシブ・ラーニング・フレームワークであるYodaを紹介する。
モデルファインチューニングの有効性を向上させるために,教師の教育過程をエミュレートする。
実験の結果, YODAのデータによるLLaMA2のトレーニングにより, SFTは大幅に向上した。
論文 参考訳(メタデータ) (2024-01-28T14:32:15Z) - Empowering Private Tutoring by Chaining Large Language Models [87.76985829144834]
本研究は,最先端の大規模言語モデル(LLM)を活用した,本格的な知的チューリングシステムの開発を探求する。
このシステムは、相互に接続された3つのコアプロセス(相互作用、反射、反応)に分けられる。
各プロセスは LLM ベースのツールと動的に更新されたメモリモジュールによって実装される。
論文 参考訳(メタデータ) (2023-09-15T02:42:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。