論文の概要: Mixing Backward- with Forward-Chaining for Metacognitive Skill
Acquisition and Transfer
- arxiv url: http://arxiv.org/abs/2303.12223v1
- Date: Sat, 18 Mar 2023 16:44:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-23 15:56:48.046244
- Title: Mixing Backward- with Forward-Chaining for Metacognitive Skill
Acquisition and Transfer
- Title(参考訳): メタ認知的スキル獲得と伝達のための後方結合と前方結合の混合
- Authors: Mark Abdelshiheed, John Wesley Hostetter, Xi Yang, Tiffany Barnes, Min
Chi
- Abstract要約: 学生は、デフォルトのフォワードチェア(FC)とバックワードチェア(BC)戦略をサポートするロジックチューターで訓練された。
我々は,BCとFCの混合が非StrTime学生の教育戦略と時間意識に及ぼす影響について検討した。
- 参考スコア(独自算出の注目度): 9.702049806385011
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Metacognitive skills have been commonly associated with preparation for
future learning in deductive domains. Many researchers have regarded strategy-
and time-awareness as two metacognitive skills that address how and when to use
a problem-solving strategy, respectively. It was shown that students who are
both strategy-and time-aware (StrTime) outperformed their nonStrTime peers
across deductive domains. In this work, students were trained on a logic tutor
that supports a default forward-chaining (FC) and a backward-chaining (BC)
strategy. We investigated the impact of mixing BC with FC on teaching strategy-
and time-awareness for nonStrTime students. During the logic instruction, the
experimental students (Exp) were provided with two BC worked examples and some
problems in BC to practice how and when to use BC. Meanwhile, their control
(Ctrl) and StrTime peers received no such intervention. Six weeks later, all
students went through a probability tutor that only supports BC to evaluate
whether the acquired metacognitive skills are transferred from logic. Our
results show that on both tutors, Exp outperformed Ctrl and caught up with
StrTime.
- Abstract(参考訳): メタ認知的スキルは、帰納的領域における将来の学習の準備と一般的に関連づけられている。
多くの研究者は、戦略とタイムアウェアネスを、どのようにいつ問題解決戦略を使うかという2つのメタ認知スキルと見なしている。
その結果,ストラテジー・アンド・タイム・アウェア(StrTime)の学生は,非StrTimeピアよりもデダクティブドメインで優れていた。
この研究では、学生はデフォルトのフォワードチェーン(fc)とバックワードチェーン(bc)戦略をサポートする論理チューターで訓練された。
我々は,BCとFCの混合が非StrTime学生の教育戦略と時間意識に及ぼす影響を検討した。
論理学の指導の間、実験学生(exp)は、bcの2つの実例と、bcの使用方法と使用時期を実践するためにbcのいくつかの問題を提示された。
一方、彼らのコントロール(Ctrl)とStrTimeピアはそのような介入を受けなかった。
6週間後、全ての学生が、獲得したメタ認知スキルが論理から移行されるかどうかを評価するために、BCのみをサポートする確率教師を受講した。
我々の結果は、両方のチューターでExpがCtrlより優れ、StrTimeに追いついたことを示している。
関連論文リスト
- Investigating the Pre-Training Dynamics of In-Context Learning: Task Recognition vs. Task Learning [99.05401042153214]
In-context Learning(ICL)は、タスク認識(TR)とタスク学習(TL)の2つの主要な能力に起因する可能性がある。
ICLの出現の事前学習のダイナミクスを調べることで、第一歩を踏み出す。
そこで本研究では,この2つの機能を推論時によりよく統合するための,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-06-20T06:37:47Z) - Chaos-based reinforcement learning with TD3 [3.04503073434724]
カオスに基づく強化学習(CBRL)は、エージェントの内部カオス力学が探索を促進する方法である。
この研究は、最先端の深層強化学習アルゴリズムの一つであるTD3(Twin Delayed Deep Deterministic Policy Gradients)を導入した。
論文 参考訳(メタデータ) (2024-05-15T04:47:31Z) - A Study of Forward-Forward Algorithm for Self-Supervised Learning [65.268245109828]
本研究では,自己指導型表現学習におけるフォワードとバックプロパゲーションのパフォーマンスについて検討する。
我々の主な発見は、フォワードフォワードアルゴリズムが(自己教師付き)トレーニング中にバックプロパゲーションに相容れないように機能するのに対し、転送性能は研究されたすべての設定において著しく遅れていることである。
論文 参考訳(メタデータ) (2023-09-21T10:14:53Z) - Bridging Declarative, Procedural, and Conditional Metacognitive
Knowledge Gap Using Deep Reinforcement Learning [7.253181280137071]
帰納的ドメインでは、昇順のメタ認知的知識タイプは宣言的、手続き的、条件的学習である。
この研究は、3つの知識タイプ間のギャップを埋めるために適応的なメタ認知的介入を提供するために、Deep Reinforcement Learning (DRL)を活用する。
以上の結果から,DRLは両ITSにおいて,学生間のメタ認知的知識ギャップを橋渡しし,学習能力を大幅に向上させた。
論文 参考訳(メタデータ) (2023-04-23T20:07:07Z) - Leveraging Deep Reinforcement Learning for Metacognitive Interventions
across Intelligent Tutoring Systems [7.253181280137071]
本研究は,知能学習システム(ITS)におけるメタ認知的介入を実現するための2つのアプローチを比較する。
実験1では,古典的な人工知能を用いて,生徒を異なるメタ認知グループに分類し,分類されたグループに基づいて静的な介入を行う。
Exp.2では,Deep Reinforcement Learning(DRL)を利用して,生徒のメタ認知レベルの変化を考慮した適応的介入を行った。
論文 参考訳(メタデータ) (2023-04-17T12:10:50Z) - The Power of Nudging: Exploring Three Interventions for Metacognitive
Skills Instruction across Intelligent Tutoring Systems [6.639504127104268]
学生は、デフォルトのフォワードチェーンと後方チェーン戦略をサポートするロジックチューターで訓練された。
本研究では,デフォルトの学生に,どの戦略を論理教師に教えるか,いつどのように使うかを教えるための3種類の介入について検討した。
論文 参考訳(メタデータ) (2023-03-18T16:27:51Z) - Accelerating Self-Supervised Learning via Efficient Training Strategies [98.26556609110992]
自己監督型ディープネットワークのトレーニング時間は、教師付きディープネットワークよりも桁違いに大きい。
これらの課題に乗じて,近年の自己指導手法の訓練時間を短縮する方法について検討する。
論文 参考訳(メタデータ) (2022-12-11T21:49:39Z) - Investigating the Impact of Backward Strategy Learning in a Logic Tutor:
Aiding Subgoal Learning towards Improved Problem Solving [6.639504127104268]
トレーニングセッションでは、学生が後方戦略を学ぶのを助けるために、後方作業例(BWE)と問題解決(BPS)が実施された。
以上の結果から,BWEとBPSを併用した訓練を受けた学生は,BWEとBWEの併用が認められなかった場合,BWEとBWEの併用が困難であった。
論文 参考訳(メタデータ) (2022-07-27T00:43:52Z) - Coach-assisted Multi-Agent Reinforcement Learning Framework for
Unexpected Crashed Agents [120.91291581594773]
本稿では,予期せぬクラッシュを伴う協調型マルチエージェント強化学習システムの公式な定式化について述べる。
本稿では,教師支援型多エージェント強化学習フレームワークを提案する。
私たちの知る限りでは、この研究はマルチエージェントシステムにおける予期せぬクラッシュを初めて研究したものです。
論文 参考訳(メタデータ) (2022-03-16T08:22:45Z) - Online Meta-Critic Learning for Off-Policy Actor-Critic Methods [107.98781730288897]
Off-Policy Actor-Critic (Off-PAC)法は、様々な連続制御タスクで成功している。
本稿では,学習過程を観察し,アクターにさらなる損失を与える新しい,フレキシブルなメタクリティカルを導入する。
論文 参考訳(メタデータ) (2020-03-11T14:39:49Z) - Transfer Heterogeneous Knowledge Among Peer-to-Peer Teammates: A Model
Distillation Approach [55.83558520598304]
本研究は, モデル蒸留により, 複数の学生間で経験と伝達値関数を再利用する新しい手法を提案する。
また、異種知識を活用するための効率的な通信プロトコルの設計方法について述べる。
提案するフレームワークである学習・指導カテゴリー強化は,学習の進捗を安定化・加速する上で有望な性能を示す。
論文 参考訳(メタデータ) (2020-02-06T11:31:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。