論文の概要: Personalized Learning Path Planning with Goal-Driven Learner State Modeling
- arxiv url: http://arxiv.org/abs/2510.13215v1
- Date: Wed, 15 Oct 2025 06:59:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.53607
- Title: Personalized Learning Path Planning with Goal-Driven Learner State Modeling
- Title(参考訳): ゴール駆動学習状態モデリングによるパーソナライズドラーニングパス計画
- Authors: Joy Jia Yin Lim, Ye He, Jifan Yu, Xin Cong, Daniel Zhang-Li, Zhiyuan Liu, Huiqin Liu, Lei Hou, Juanzi Li, Bin Xu,
- Abstract要約: パーソナライズされた学習パスのための新しいフレームワークであるPxploreを紹介する。
構造化学習状態モデルと,抽象目的を計算可能な信号に変換する自動報酬関数を設計する。
実験は、コヒーレントでパーソナライズされた目標駆動学習パスを生成する上で、Pxploreの有効性を検証する。
- 参考スコア(独自算出の注目度): 68.96987567845824
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Personalized Learning Path Planning (PLPP) aims to design adaptive learning paths that align with individual goals. While large language models (LLMs) show potential in personalizing learning experiences, existing approaches often lack mechanisms for goal-aligned planning. We introduce Pxplore, a novel framework for PLPP that integrates a reinforcement-based training paradigm and an LLM-driven educational architecture. We design a structured learner state model and an automated reward function that transforms abstract objectives into computable signals. We train the policy combining supervised fine-tuning (SFT) and Group Relative Policy Optimization (GRPO), and deploy it within a real-world learning platform. Extensive experiments validate Pxplore's effectiveness in producing coherent, personalized, and goal-driven learning paths. We release our code and dataset to facilitate future research.
- Abstract(参考訳): パーソナライズドラーニングパス計画(PLPP)は、個々の目標に沿った適応的なラーニングパスを設計することを目的としている。
大規模言語モデル(LLM)は学習経験をパーソナライズする可能性を示しているが、既存のアプローチでは目標に沿った計画のメカニズムが欠如していることが多い。
我々はPLPPのための新しいフレームワークであるPxploreを紹介した。
構造化学習状態モデルと,抽象目的を計算可能な信号に変換する自動報酬関数を設計する。
我々は、教師付き微調整(SFT)とグループ相対政策最適化(GRPO)を組み合わせた政策を訓練し、それを現実世界の学習プラットフォームに展開する。
大規模な実験は、コヒーレントでパーソナライズされた目標駆動学習パスを生成する上で、Pxploreの有効性を検証する。
将来の研究を促進するために、コードとデータセットをリリースします。
関連論文リスト
- Flex: End-to-End Text-Instructed Visual Navigation from Foundation Model Features [59.892436892964376]
本稿では,視覚に基づく制御ポリシを用いて,ロバストな閉ループ性能を実現するために必要な最小限のデータ要件とアーキテクチャ適応について検討する。
この知見はFlex (Fly lexically) で合成され, 凍結パッチワイド特徴抽出器として, 事前学習された視覚言語モデル (VLM) を用いたフレームワークである。
本研究では,本手法の有効性を,行動クローンによる訓練を実世界のシーンに応用した,四重項フライ・トゥ・ターゲットタスクに適用した。
論文 参考訳(メタデータ) (2024-10-16T19:59:31Z) - Analysis, Modeling and Design of Personalized Digital Learning Environment [12.248184406275405]
本研究は、革新的なプライベート・ラーニング・インテリジェンス(PLI)フレームワークによって強化された新しいデジタル・ラーニング・環境(DLE)を分析し、モデル化し、開発する。
我々のアプローチは、DLE能力の進歩において重要なものであり、学習者がパーソナライズされたリアルタイム学習体験に積極的に参加できるようにする。
論文 参考訳(メタデータ) (2024-05-17T00:26:16Z) - ALPINE: Unveiling the Planning Capability of Autoregressive Learning in Language Models [48.559185522099625]
計画は人間の知性と現代大言語モデル(LLM)の両方の重要な要素である
本稿では,トランスフォーマーを用いたLLMにおける次の単語予測機構による計画能力の出現について検討する。
論文 参考訳(メタデータ) (2024-05-15T09:59:37Z) - PDSketch: Integrated Planning Domain Programming and Learning [86.07442931141637]
我々は PDSketch という新しいドメイン定義言語を提案する。
これにより、ユーザーはトランジションモデルで柔軟にハイレベルな構造を定義できる。
移行モデルの詳細は、トレーニング可能なニューラルネットワークによって満たされる。
論文 参考訳(メタデータ) (2023-03-09T18:54:12Z) - Affordance Learning from Play for Sample-Efficient Policy Learning [30.701546777177555]
遠隔操作型プレイデータから自己監督型ビジュアルアプライアンスモデルを用いて,効率的なポリシー学習とモーションプランニングを実現する。
モデルベースプランニングとモデルフリーの深層強化学習を組み合わせることで、人々が好む同じ対象領域を好むポリシーを学ぶ。
我々の政策はベースラインよりも4倍速くトレーニングし、新しいオブジェクトを一般化する。
論文 参考訳(メタデータ) (2022-03-01T11:00:35Z) - Learning Multi-Objective Curricula for Deep Reinforcement Learning [55.27879754113767]
深部強化学習(DRL)のサンプル効率と最終性能を向上させるために,各種自動カリキュラム学習(ACL)手法が提案されている。
本稿では,多目的だがコヒーレントなカリキュラムを作成するための統合された自動カリキュラム学習フレームワークを提案する。
既存の手設計のカリキュラムパラダイムに加えて,抽象カリキュラムを学習するためのフレキシブルなメモリ機構を設計する。
論文 参考訳(メタデータ) (2021-10-06T19:30:25Z) - Learning Off-Policy with Online Planning [18.63424441772675]
本研究では,学習モデルと端末値関数を用いたHステップルックアヘッドの新たなインスタンス化について検討する。
ナビゲーション環境の集合に配置する際の安全性制約を組み込むLOOPの柔軟性を示す。
論文 参考訳(メタデータ) (2020-08-23T16:18:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。