論文の概要: Bridging Declarative, Procedural, and Conditional Metacognitive
Knowledge Gap Using Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2304.11739v1
- Date: Sun, 23 Apr 2023 20:07:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 16:35:07.142297
- Title: Bridging Declarative, Procedural, and Conditional Metacognitive
Knowledge Gap Using Deep Reinforcement Learning
- Title(参考訳): 深層強化学習を用いたブリッジング宣言・手続き・条件メタ認知知識ギャップ
- Authors: Mark Abdelshiheed, John Wesley Hostetter, Tiffany Barnes, Min Chi
- Abstract要約: 帰納的ドメインでは、昇順のメタ認知的知識タイプは宣言的、手続き的、条件的学習である。
この研究は、3つの知識タイプ間のギャップを埋めるために適応的なメタ認知的介入を提供するために、Deep Reinforcement Learning (DRL)を活用する。
以上の結果から,DRLは両ITSにおいて,学生間のメタ認知的知識ギャップを橋渡しし,学習能力を大幅に向上させた。
- 参考スコア(独自算出の注目度): 7.253181280137071
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In deductive domains, three metacognitive knowledge types in ascending order
are declarative, procedural, and conditional learning. This work leverages Deep
Reinforcement Learning (DRL) in providing adaptive metacognitive interventions
to bridge the gap between the three knowledge types and prepare students for
future learning across Intelligent Tutoring Systems (ITSs). Students received
these interventions that taught how and when to use a backward-chaining (BC)
strategy on a logic tutor that supports a default forward-chaining strategy.
Six weeks later, we trained students on a probability tutor that only supports
BC without interventions. Our results show that on both ITSs, DRL bridged the
metacognitive knowledge gap between students and significantly improved their
learning performance over their control peers. Furthermore, the DRL policy
adapted to the metacognitive development on the logic tutor across declarative,
procedural, and conditional students, causing their strategic decisions to be
more autonomous.
- Abstract(参考訳): 帰納的領域では、3つのメタ認知的知識タイプは宣言的、手続き的、条件付き学習である。
この研究は、深層強化学習(drl)を活用し、3つの知識タイプ間のギャップを埋める適応的メタ認知的介入を提供し、知的指導システム(itss)間の将来の学習に備える。
学生はこれらの介入を受け、デフォルトのフォワードチェイン戦略をサポートする論理チューターで後方チェイン(BC)戦略をどのようにいつ使うかを教えた。
6週間後、我々は介入なしでbcのみをサポートする確率チューターで生徒を訓練した。
以上の結果から,drlは学生間のメタ認知的知識ギャップを橋渡しし,コントロールピアに対する学習性能を大幅に向上させた。
さらに、DRL政策は、宣言的、手続き的、条件的学生間の論理教師のメタ認知的発達に適応し、彼らの戦略的決定はより自律的である。
関連論文リスト
- Chaos-based reinforcement learning with TD3 [3.04503073434724]
カオスに基づく強化学習(CBRL)は、エージェントの内部カオス力学が探索を促進する方法である。
この研究は、最先端の深層強化学習アルゴリズムの一つであるTD3(Twin Delayed Deep Deterministic Policy Gradients)を導入した。
論文 参考訳(メタデータ) (2024-05-15T04:47:31Z) - RLIF: Interactive Imitation Learning as Reinforcement Learning [56.997263135104504]
我々は,対話型模倣学習と類似するが,さらに実践的な仮定の下で,非政治強化学習によってパフォーマンスが向上できることを実証する。
提案手法は,ユーザ介入信号を用いた強化学習を報奨として利用する。
このことは、インタラクティブな模倣学習において介入する専門家がほぼ最適であるべきだという仮定を緩和し、アルゴリズムが潜在的に最適でない人間の専門家よりも改善される行動を学ぶことを可能にする。
論文 参考訳(メタデータ) (2023-11-21T21:05:21Z) - From Heuristic to Analytic: Cognitively Motivated Strategies for
Coherent Physical Commonsense Reasoning [66.98861219674039]
ヒューリスティック分析推論(HAR)戦略は、モデル決定のための合理化のコヒーレンスを大幅に改善する。
以上の結果から, PLM推論の一貫性と信頼性を効果的に向上できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-24T19:46:04Z) - Generative AI in the Classroom: Can Students Remain Active Learners? [23.487653534242092]
ジェネレーティブ・人工知能(英語版) (GAI) は教育における二重の武器と見なすことができる。
本稿では,学生の積極的学習戦略と関連するメタ認知能力に及ぼす効果に焦点を当てる。
GAIベースの教育アプリケーションに教育的透明性を導入するための枠組みを提案する。
論文 参考訳(メタデータ) (2023-10-04T22:33:46Z) - Leveraging Deep Reinforcement Learning for Metacognitive Interventions
across Intelligent Tutoring Systems [7.253181280137071]
本研究は,知能学習システム(ITS)におけるメタ認知的介入を実現するための2つのアプローチを比較する。
実験1では,古典的な人工知能を用いて,生徒を異なるメタ認知グループに分類し,分類されたグループに基づいて静的な介入を行う。
Exp.2では,Deep Reinforcement Learning(DRL)を利用して,生徒のメタ認知レベルの変化を考慮した適応的介入を行った。
論文 参考訳(メタデータ) (2023-04-17T12:10:50Z) - Mixing Backward- with Forward-Chaining for Metacognitive Skill
Acquisition and Transfer [9.702049806385011]
学生は、デフォルトのフォワードチェア(FC)とバックワードチェア(BC)戦略をサポートするロジックチューターで訓練された。
我々は,BCとFCの混合が非StrTime学生の教育戦略と時間意識に及ぼす影響について検討した。
論文 参考訳(メタデータ) (2023-03-18T16:44:10Z) - Implicit Offline Reinforcement Learning via Supervised Learning [83.8241505499762]
監視学習によるオフライン強化学習(RL)は、さまざまな専門レベルのポリシーによって収集されたデータセットからロボットスキルを学ぶための、シンプルで効果的な方法である。
我々は、暗黙的なモデルが返却情報を利用して、固定されたデータセットからロボットスキルを取得するために、明示的なアルゴリズムにマッチするか、あるいは性能を向上するかを示す。
論文 参考訳(メタデータ) (2022-10-21T21:59:42Z) - Contrastive UCB: Provably Efficient Contrastive Self-Supervised Learning in Online Reinforcement Learning [92.18524491615548]
対照的な自己指導型学習は、(深層)強化学習(RL)の実践にうまく統合されている
我々は,低ランク遷移を伴うマルコフ決定過程(MDP)とマルコフゲーム(MG)のクラスにおいて,コントラスト学習によってRLをどのように強化できるかを検討する。
オンライン環境下では,MDPやMGのオンラインRLアルゴリズムと対照的な損失を生かした,新しい高信頼境界(UCB)型アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-07-29T17:29:08Z) - Rethinking Learning Dynamics in RL using Adversarial Networks [79.56118674435844]
本稿では,スキル埋め込み空間を通じてパラメータ化された,密接に関連するスキルの強化学習のための学習機構を提案する。
本研究の主な貢献は、エントロピー規則化政策勾配定式化の助けを借りて、強化学習のための敵の訓練体制を定式化することである。
論文 参考訳(メタデータ) (2022-01-27T19:51:09Z) - MOLAM: A Mobile Multimodal Learning Analytics Conceptual Framework to
Support Student Self-Regulated Learning [0.0]
この章では、MOLAM(Mobile Multimodal Learning Analytics)アプローチを紹介します。
学生の自己統制型学習の発展は、このアプローチの採用の恩恵を受けるだろうと私は主張する。
論文 参考訳(メタデータ) (2020-12-18T18:55:33Z) - Transfer Learning in Deep Reinforcement Learning: A Survey [64.36174156782333]
強化学習は、シーケンシャルな意思決定問題を解決するための学習パラダイムである。
近年、ディープニューラルネットワークの急速な発展により、強化学習の顕著な進歩が見られた。
転校学習は 強化学習が直面する様々な課題に 対処するために生まれました
論文 参考訳(メタデータ) (2020-09-16T18:38:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。