論文の概要: Investigating the Impact of Backward Strategy Learning in a Logic Tutor:
Aiding Subgoal Learning towards Improved Problem Solving
- arxiv url: http://arxiv.org/abs/2208.04696v1
- Date: Wed, 27 Jul 2022 00:43:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-14 18:19:59.048749
- Title: Investigating the Impact of Backward Strategy Learning in a Logic Tutor:
Aiding Subgoal Learning towards Improved Problem Solving
- Title(参考訳): 論理チュータにおける後方戦略学習の効果の検討--問題解決に向けた下位学習を支援する
- Authors: Preya Shabrina, Behrooz Mostafavi, Mark Abdelshiheed, Min Chi, Tiffany
Barnes
- Abstract要約: トレーニングセッションでは、学生が後方戦略を学ぶのを助けるために、後方作業例(BWE)と問題解決(BPS)が実施された。
以上の結果から,BWEとBPSを併用した訓練を受けた学生は,BWEとBWEの併用が認められなかった場合,BWEとBWEの併用が困難であった。
- 参考スコア(独自算出の注目度): 6.639504127104268
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning to derive subgoals reduces the gap between experts and students and
makes students prepared for future problem solving. Researchers have explored
subgoal labeled instructional materials with explanations in traditional
problem solving and within tutoring systems to help novices learn to subgoal.
However, only a little research is found on problem-solving strategies in
relationship with subgoal learning. Also, these strategies are under-explored
within computer-based tutors and learning environments. Backward
problem-solving strategy is closely related to the process of subgoaling, where
problem solving iteratively refines the goal into a new subgoal to reduce
difficulty. In this paper, we explore a training strategy for backward strategy
learning within an intelligent logic tutor that teaches logic proof
construction. The training session involved backward worked examples (BWE) and
problem-solving (BPS) to help students learn backward strategy towards
improving their subgoaling and problem-solving skills. To evaluate the training
strategy, we analyzed students' 1) experience with and engagement in learning
backward strategy, 2) performance, and 3) proof construction approaches in new
problems that they solved independently without tutor help after each level of
training and in post-test. Our results showed that, when new problems were
given to solve without any tutor help, students who were trained with both BWE
and BPS outperformed students who received none of the treatment or only BWE
during training. Additionally, students trained with both BWE and BPS derived
subgoals during proof construction with significantly higher efficiency than
the other two groups.
- Abstract(参考訳): サブゴールの学習は、専門家と学生のギャップを減らし、将来の問題解決に備える。
研究者は、初心者がサブゴールを学ぶのを助けるために、従来の問題解決や指導システムの中での説明とともに、サブゴールラベル付き教材を調査した。
しかし, 下位学習との関連において, 問題解決戦略についての研究は少ない。
また、これらの戦略は、コンピュータベースのチューターと学習環境内では未探索である。
後方問題解決戦略は、問題の解決が目的を新たなサブゴールへと反復的に洗練し、難易度を下げるプロセスと密接に関連している。
本稿では,論理証明構築を教える知的論理チュータ内での後方戦略学習のための学習戦略について検討する。
トレーニングセッションでは、下位作業例(BWE)と課題解決(BPS)が加わり、学生が下位作業と問題解決スキルを改善するための後方戦略を学ぶのに役立った。
学習戦略を評価するために 学生の学習戦略を分析し
1)後ろ向き戦略の学習における経験と関与
2)パフォーマンス、および
3)各レベルのトレーニングとポストテストの後に、教師の助けなしに独自に解決した新しい問題に対する証明構築アプローチ。
以上の結果から,bwe と bps の双方で学習した学生は,授業中,bwe を受講していない生徒や,bwe のみを受講した生徒を上回っていた。
さらに、bweとbpsの両方で訓練を受けた学生は、他の2つのグループよりも有意に高い効率の証明構築中に、サブゴールを導出した。
関連論文リスト
- Towards the Pedagogical Steering of Large Language Models for Tutoring: A Case Study with Modeling Productive Failure [36.83786872708736]
1対1の授業は、最も効果的な教育方法の1つである。
先進的で効果的な学習設計であるProductive Failure (PF) に倣って, 高校数学のプロトタイプチューターを作成する。
我々は,StratLがLLMの運営に成功し,生産的失敗の学習戦略に従うことを定量的に示す。
論文 参考訳(メタデータ) (2024-10-03T16:15:41Z) - Encouraging Responsible Use of Generative AI in Education: A Reward-Based Learning Approach [0.7889270818022226]
本研究は、生成AIを統合した革新的な数学的学習手法を導入し、素早い解ではなく構造化学習を育成する。
目標は、学生が迅速な修正を求めることから、総合的な学習体験に積極的に参加することにある。
論文 参考訳(メタデータ) (2024-06-26T14:27:24Z) - YODA: Teacher-Student Progressive Learning for Language Models [82.0172215948963]
本稿では,教師が指導するプログレッシブ・ラーニング・フレームワークであるYodaを紹介する。
モデルファインチューニングの有効性を向上させるために,教師の教育過程をエミュレートする。
実験の結果, YODAのデータによるLLaMA2のトレーニングにより, SFTは大幅に向上した。
論文 参考訳(メタデータ) (2024-01-28T14:32:15Z) - Causal Reinforcement Learning: A Survey [57.368108154871]
強化学習は、不確実性の下でのシーケンシャルな決定問題の解決に不可欠なパラダイムである。
主な障害の1つは、強化学習エージェントが世界に対する根本的な理解を欠いていることである。
因果性は、体系的な方法で知識を形式化できるという点で顕著な利点がある。
論文 参考訳(メタデータ) (2023-07-04T03:00:43Z) - Bridging Declarative, Procedural, and Conditional Metacognitive
Knowledge Gap Using Deep Reinforcement Learning [7.253181280137071]
帰納的ドメインでは、昇順のメタ認知的知識タイプは宣言的、手続き的、条件的学習である。
この研究は、3つの知識タイプ間のギャップを埋めるために適応的なメタ認知的介入を提供するために、Deep Reinforcement Learning (DRL)を活用する。
以上の結果から,DRLは両ITSにおいて,学生間のメタ認知的知識ギャップを橋渡しし,学習能力を大幅に向上させた。
論文 参考訳(メタデータ) (2023-04-23T20:07:07Z) - The Power of Nudging: Exploring Three Interventions for Metacognitive
Skills Instruction across Intelligent Tutoring Systems [6.639504127104268]
学生は、デフォルトのフォワードチェーンと後方チェーン戦略をサポートするロジックチューターで訓練された。
本研究では,デフォルトの学生に,どの戦略を論理教師に教えるか,いつどのように使うかを教えるための3種類の介入について検討した。
論文 参考訳(メタデータ) (2023-03-18T16:27:51Z) - Teacher-student curriculum learning for reinforcement learning [1.7259824817932292]
強化学習(rl)は、シーケンシャルな意思決定問題に対する一般的なパラダイムである。
深部強化学習手法のサンプル非効率性は,実世界の問題に適用する際の重要な障害である。
そこで我々は,学生が選択した課題の解き方を学習している間に,生徒の課題を選択する教師を同時に訓練する学習環境を提案する。
論文 参考訳(メタデータ) (2022-10-31T14:45:39Z) - Teachable Reinforcement Learning via Advice Distillation [161.43457947665073]
外部教師が提供した構造化アドバイスから学習する「教育可能な」意思決定システムに基づく対話型学習のための新しい指導パラダイムを提案する。
我々は、アドバイスから学ぶエージェントが、標準的な強化学習アルゴリズムよりも人的監督力の少ない新しいスキルを習得できることを示す。
論文 参考訳(メタデータ) (2022-03-19T03:22:57Z) - Rethinking Learning Dynamics in RL using Adversarial Networks [79.56118674435844]
本稿では,スキル埋め込み空間を通じてパラメータ化された,密接に関連するスキルの強化学習のための学習機構を提案する。
本研究の主な貢献は、エントロピー規則化政策勾配定式化の助けを借りて、強化学習のための敵の訓練体制を定式化することである。
論文 参考訳(メタデータ) (2022-01-27T19:51:09Z) - Persistent Reinforcement Learning via Subgoal Curricula [114.83989499740193]
VaPRL(Value-accelerated Persistent Reinforcement Learning)は、初期状態のカリキュラムを生成する。
VaPRLは、エピソード強化学習と比較して、3桁の精度で必要な介入を減らす。
論文 参考訳(メタデータ) (2021-07-27T16:39:45Z) - Dual Policy Distillation [58.43610940026261]
教員政策を学生政策に転換する政策蒸留は、深層強化学習の課題において大きな成功を収めた。
本研究では,2人の学習者が同じ環境下で活動し,環境の異なる視点を探索する,学生学生による二重政策蒸留(DPD)を導入する。
この二重学習フレームワークを開発する上で重要な課題は、同時代の学習に基づく強化学習アルゴリズムにおいて、ピア学習者から有益な知識を特定することである。
論文 参考訳(メタデータ) (2020-06-07T06:49:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。