論文の概要: Leveraging Deep Reinforcement Learning for Metacognitive Interventions
across Intelligent Tutoring Systems
- arxiv url: http://arxiv.org/abs/2304.09821v1
- Date: Mon, 17 Apr 2023 12:10:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-20 13:26:16.365816
- Title: Leveraging Deep Reinforcement Learning for Metacognitive Interventions
across Intelligent Tutoring Systems
- Title(参考訳): 知能学習システムにおけるメタ認知介入のための深層強化学習の活用
- Authors: Mark Abdelshiheed, John Wesley Hostetter, Tiffany Barnes, Min Chi
- Abstract要約: 本研究は,知能学習システム(ITS)におけるメタ認知的介入を実現するための2つのアプローチを比較する。
実験1では,古典的な人工知能を用いて,生徒を異なるメタ認知グループに分類し,分類されたグループに基づいて静的な介入を行う。
Exp.2では,Deep Reinforcement Learning(DRL)を利用して,生徒のメタ認知レベルの変化を考慮した適応的介入を行った。
- 参考スコア(独自算出の注目度): 7.253181280137071
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work compares two approaches to provide metacognitive interventions and
their impact on preparing students for future learning across Intelligent
Tutoring Systems (ITSs). In two consecutive semesters, we conducted two
classroom experiments: Exp. 1 used a classic artificial intelligence approach
to classify students into different metacognitive groups and provide static
interventions based on their classified groups. In Exp. 2, we leveraged Deep
Reinforcement Learning (DRL) to provide adaptive interventions that consider
the dynamic changes in the student's metacognitive levels. In both experiments,
students received these interventions that taught how and when to use a
backward-chaining (BC) strategy on a logic tutor that supports a default
forward-chaining strategy. Six weeks later, we trained students on a
probability tutor that only supports BC without interventions. Our results show
that adaptive DRL-based interventions closed the metacognitive skills gap
between students. In contrast, static classifier-based interventions only
benefited a subset of students who knew how to use BC in advance. Additionally,
our DRL agent prepared the experimental students for future learning by
significantly surpassing their control peers on both ITSs.
- Abstract(参考訳): この研究は、メタ認知的介入を提供するための2つのアプローチと、Intelligent Tutoring Systems (ITS)における将来の学習のための学生の準備に対する影響を比較した。
実験1では,古典的な人工知能を用いて,生徒を異なるメタ認知グループに分類し,分類されたグループに基づいて静的な介入を行う。
Exp.2では,Deep Reinforcement Learning(DRL)を利用して,生徒のメタ認知レベルの動的変化を考慮した適応的介入を行った。
両方の実験で、学生はこれらの介入を受け、デフォルトのフォワードチェイン戦略をサポートする論理チューターで後方チェイン(BC)戦略をどのように、いつ使うかを教えた。
6週間後、我々は介入なしでbcのみをサポートする確率チューターで生徒を訓練した。
その結果,適応型DRLによる介入は,学生間のメタ認知スキルギャップを埋めることがわかった。
対照的に、静的分類器に基づく介入は、事前bcの使い方を知っている学生のサブセットにのみ恩恵を与えた。
さらに,我々のDRLエージェントは,両ITSのコントロールピアを大幅に超えて,将来の学習のための実験的な学生を準備した。
関連論文リスト
- Chaos-based reinforcement learning with TD3 [3.04503073434724]
カオスに基づく強化学習(CBRL)は、エージェントの内部カオス力学が探索を促進する方法である。
この研究は、最先端の深層強化学習アルゴリズムの一つであるTD3(Twin Delayed Deep Deterministic Policy Gradients)を導入した。
論文 参考訳(メタデータ) (2024-05-15T04:47:31Z) - RLIF: Interactive Imitation Learning as Reinforcement Learning [56.997263135104504]
我々は,対話型模倣学習と類似するが,さらに実践的な仮定の下で,非政治強化学習によってパフォーマンスが向上できることを実証する。
提案手法は,ユーザ介入信号を用いた強化学習を報奨として利用する。
このことは、インタラクティブな模倣学習において介入する専門家がほぼ最適であるべきだという仮定を緩和し、アルゴリズムが潜在的に最適でない人間の専門家よりも改善される行動を学ぶことを可能にする。
論文 参考訳(メタデータ) (2023-11-21T21:05:21Z) - Demonstration-free Autonomous Reinforcement Learning via Implicit and
Bidirectional Curriculum [22.32327908453603]
Indicit and Bi-directional Curriculum (IBC) を用いた実証自由強化学習アルゴリズムを提案する。
学習の進捗に応じて条件付きで活性化される補助エージェントと、最適輸送に基づく双方向ゴールカリキュラムにより、本手法は従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-05-17T04:31:36Z) - Bridging Declarative, Procedural, and Conditional Metacognitive
Knowledge Gap Using Deep Reinforcement Learning [7.253181280137071]
帰納的ドメインでは、昇順のメタ認知的知識タイプは宣言的、手続き的、条件的学習である。
この研究は、3つの知識タイプ間のギャップを埋めるために適応的なメタ認知的介入を提供するために、Deep Reinforcement Learning (DRL)を活用する。
以上の結果から,DRLは両ITSにおいて,学生間のメタ認知的知識ギャップを橋渡しし,学習能力を大幅に向上させた。
論文 参考訳(メタデータ) (2023-04-23T20:07:07Z) - Mixing Backward- with Forward-Chaining for Metacognitive Skill
Acquisition and Transfer [9.702049806385011]
学生は、デフォルトのフォワードチェア(FC)とバックワードチェア(BC)戦略をサポートするロジックチューターで訓練された。
我々は,BCとFCの混合が非StrTime学生の教育戦略と時間意識に及ぼす影響について検討した。
論文 参考訳(メタデータ) (2023-03-18T16:44:10Z) - Distantly-Supervised Named Entity Recognition with Adaptive Teacher
Learning and Fine-grained Student Ensemble [56.705249154629264]
NERモデルの堅牢性を改善するために,自己学習型教員学生フレームワークを提案する。
本稿では,2つの教員ネットワークからなる適応型教員学習を提案する。
微粒な学生アンサンブルは、教師モデルの各フラグメントを、生徒の対応するフラグメントの時間移動平均で更新し、各モデルフラグメントのノイズに対する一貫した予測を強化する。
論文 参考訳(メタデータ) (2022-12-13T12:14:09Z) - Enhancing Adversarial Training with Feature Separability [52.39305978984573]
本稿では,特徴分離性を備えた対人訓練(ATFS)により,クラス内特徴の類似性を向上し,クラス間特徴分散を増大させることができる,新たな対人訓練グラフ(ATG)を提案する。
包括的な実験を通じて、提案したATFSフレームワークがクリーンかつロバストなパフォーマンスを著しく改善することを示した。
論文 参考訳(メタデータ) (2022-05-02T04:04:23Z) - Autonomous Reinforcement Learning: Formalism and Benchmarking [106.25788536376007]
人間や動物が行うような現実世界の具体的学習は、連続的で非エポゾディックな世界にある。
RLの一般的なベンチマークタスクはエピソジックであり、試行錯誤によってエージェントに複数の試行を行う環境がリセットされる。
この相違は、擬似環境向けに開発されたRLアルゴリズムを現実世界のプラットフォーム上で実行しようとする場合、大きな課題となる。
論文 参考訳(メタデータ) (2021-12-17T16:28:06Z) - Persistent Reinforcement Learning via Subgoal Curricula [114.83989499740193]
VaPRL(Value-accelerated Persistent Reinforcement Learning)は、初期状態のカリキュラムを生成する。
VaPRLは、エピソード強化学習と比較して、3桁の精度で必要な介入を減らす。
論文 参考訳(メタデータ) (2021-07-27T16:39:45Z) - LANA: Towards Personalized Deep Knowledge Tracing Through
Distinguishable Interactive Sequences [21.67751919579854]
今後の質問に対する学生の回答を予測するために、Leveled Attentive KNowledge TrAcing(LANA)を提案します。
新しい学生関連特徴抽出装置(SRFE)を使用して、学生固有の特性をそれぞれのインタラクティブシーケンスから蒸留します。
ピボットモジュールは、個々の学生のためのデコーダを再構築し、グループのためのレベル付き学習特化エンコーダにより、パーソナライズされたDKTを実現した。
論文 参考訳(メタデータ) (2021-04-21T02:57:42Z) - Transfer Heterogeneous Knowledge Among Peer-to-Peer Teammates: A Model
Distillation Approach [55.83558520598304]
本研究は, モデル蒸留により, 複数の学生間で経験と伝達値関数を再利用する新しい手法を提案する。
また、異種知識を活用するための効率的な通信プロトコルの設計方法について述べる。
提案するフレームワークである学習・指導カテゴリー強化は,学習の進捗を安定化・加速する上で有望な性能を示す。
論文 参考訳(メタデータ) (2020-02-06T11:31:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。