論文の概要: The Power of Nudging: Exploring Three Interventions for Metacognitive
Skills Instruction across Intelligent Tutoring Systems
- arxiv url: http://arxiv.org/abs/2303.11965v1
- Date: Sat, 18 Mar 2023 16:27:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-22 14:10:30.793124
- Title: The Power of Nudging: Exploring Three Interventions for Metacognitive
Skills Instruction across Intelligent Tutoring Systems
- Title(参考訳): 看護の力:知能学習システムにおけるメタ認知スキル教育の3つの介入を探る
- Authors: Mark Abdelshiheed, John Wesley Hostetter, Preya Shabrina, Tiffany
Barnes, Min Chi
- Abstract要約: 学生は、デフォルトのフォワードチェーンと後方チェーン戦略をサポートするロジックチューターで訓練された。
本研究では,デフォルトの学生に,どの戦略を論理教師に教えるか,いつどのように使うかを教えるための3種類の介入について検討した。
- 参考スコア(独自算出の注目度): 6.639504127104268
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deductive domains are typical of many cognitive skills in that no single
problem-solving strategy is always optimal for solving all problems. It was
shown that students who know how and when to use each strategy (StrTime)
outperformed those who know neither and stick to the default strategy
(Default). In this work, students were trained on a logic tutor that supports a
default forward-chaining and a backward-chaining (BC) strategy, then a
probability tutor that only supports BC. We investigated three types of
interventions on teaching the Default students how and when to use which
strategy on the logic tutor: Example, Nudge and Presented. Meanwhile, StrTime
students received no interventions. Overall, our results show that Nudge
outperformed their Default peers and caught up with StrTime on both tutors.
- Abstract(参考訳): 帰納的ドメインは、すべての問題を解決するのに最適な単一の問題解決戦略が常に存在しない、多くの認知スキルの典型である。
それぞれの戦略(StrTime)の使い方や使い方を知っている学生は、どちらの戦略も知らない生徒よりも優れ、デフォルト戦略(Default)に固執している。
この研究で、学生はデフォルトのフォワードチェアと後方チェア(BC)戦略をサポートする論理チューターで訓練され、BCのみをサポートする確率チューターで訓練された。
デフォルトの学生に論理チューターのどの戦略をどのようにいつ使うかを教えるための3種類の介入について検討した。
一方、strtimeの学生は介入を受けなかった。
総合すると、NudgeはDefaultの成績を上回り、両方の家庭教師でStrTimeに追いついた。
関連論文リスト
- A Study of Forward-Forward Algorithm for Self-Supervised Learning [65.268245109828]
本研究では,自己指導型表現学習におけるフォワードとバックプロパゲーションのパフォーマンスについて検討する。
我々の主な発見は、フォワードフォワードアルゴリズムが(自己教師付き)トレーニング中にバックプロパゲーションに相容れないように機能するのに対し、転送性能は研究されたすべての設定において著しく遅れていることである。
論文 参考訳(メタデータ) (2023-09-21T10:14:53Z) - Outlier Robust Adversarial Training [57.06824365801612]
本研究では,アウトリー・ロバスト・アドバイザリアル・トレーニング(ORAT)を紹介する。
ORATは、強靭なランクに基づく損失関数を持つ対向訓練の2レベル最適化の定式化に基づいている。
ORATの学習目的はバイナリ分類における$mathcalH$-consistencyを満たすことが示され、これは敵の0/1損失に対する適切なサロゲートとして確立されている。
論文 参考訳(メタデータ) (2023-09-10T21:36:38Z) - Bridging Declarative, Procedural, and Conditional Metacognitive
Knowledge Gap Using Deep Reinforcement Learning [7.253181280137071]
帰納的ドメインでは、昇順のメタ認知的知識タイプは宣言的、手続き的、条件的学習である。
この研究は、3つの知識タイプ間のギャップを埋めるために適応的なメタ認知的介入を提供するために、Deep Reinforcement Learning (DRL)を活用する。
以上の結果から,DRLは両ITSにおいて,学生間のメタ認知的知識ギャップを橋渡しし,学習能力を大幅に向上させた。
論文 参考訳(メタデータ) (2023-04-23T20:07:07Z) - Leveraging Deep Reinforcement Learning for Metacognitive Interventions
across Intelligent Tutoring Systems [7.253181280137071]
本研究は,知能学習システム(ITS)におけるメタ認知的介入を実現するための2つのアプローチを比較する。
実験1では,古典的な人工知能を用いて,生徒を異なるメタ認知グループに分類し,分類されたグループに基づいて静的な介入を行う。
Exp.2では,Deep Reinforcement Learning(DRL)を利用して,生徒のメタ認知レベルの変化を考慮した適応的介入を行った。
論文 参考訳(メタデータ) (2023-04-17T12:10:50Z) - Mixing Backward- with Forward-Chaining for Metacognitive Skill
Acquisition and Transfer [9.702049806385011]
学生は、デフォルトのフォワードチェア(FC)とバックワードチェア(BC)戦略をサポートするロジックチューターで訓練された。
我々は,BCとFCの混合が非StrTime学生の教育戦略と時間意識に及ぼす影響について検討した。
論文 参考訳(メタデータ) (2023-03-18T16:44:10Z) - Accelerating Self-Supervised Learning via Efficient Training Strategies [98.26556609110992]
自己監督型ディープネットワークのトレーニング時間は、教師付きディープネットワークよりも桁違いに大きい。
これらの課題に乗じて,近年の自己指導手法の訓練時間を短縮する方法について検討する。
論文 参考訳(メタデータ) (2022-12-11T21:49:39Z) - You Only Live Once: Single-Life Reinforcement Learning [124.1738675154651]
多くの現実世界の状況では、そのタスクを繰り返し実行できるポリシーを学ぶことではなく、単一のトライアルで1回だけ新しいタスクを成功させることが目的である。
エージェントが介入なしにひとつのエピソード内でタスクを完了しなければならない問題設定を形式化する。
本稿では,分散マッチング戦略を用いたQ$-weighted adversarial Learning (QWALE)を提案する。
論文 参考訳(メタデータ) (2022-10-17T09:00:11Z) - Learning in Stackelberg Games with Non-myopic Agents [60.927889817803745]
そこで本研究では,主役が非筋力的な長寿命エージェントと繰り返し対話するスタックルバーグゲームについて,エージェントの支払関数を知らずに検討する。
我々は、非ミオピックエージェントの存在下での学習を、ミオピックエージェントの存在下で堅牢な帯域最適化に還元する一般的なフレームワークを提供する。
論文 参考訳(メタデータ) (2022-08-19T15:49:30Z) - Investigating the Impact of Backward Strategy Learning in a Logic Tutor:
Aiding Subgoal Learning towards Improved Problem Solving [6.639504127104268]
トレーニングセッションでは、学生が後方戦略を学ぶのを助けるために、後方作業例(BWE)と問題解決(BPS)が実施された。
以上の結果から,BWEとBPSを併用した訓練を受けた学生は,BWEとBWEの併用が認められなかった場合,BWEとBWEの併用が困難であった。
論文 参考訳(メタデータ) (2022-07-27T00:43:52Z) - A Survey on Cost Types, Interaction Schemes, and Annotator Performance
Models in Selection Algorithms for Active Learning in Classification [1.539335655168078]
プールベースのアクティブラーニングは、アノテーションプロセスを最適化することを目的としている。
ALストラテジークエリは、アノテーションからインテリジェントにアノテーションを使用して、高性能な分類モデルをトレーニングする。
論文 参考訳(メタデータ) (2021-09-23T11:17:50Z) - Disturbing Reinforcement Learning Agents with Corrupted Rewards [62.997667081978825]
強化学習アルゴリズムに対する報酬の摂動に基づく異なる攻撃戦略の効果を分析します。
敵対的な報酬をスムーズに作成することは学習者を誤解させることができ、低探査確率値を使用すると、学習した政策は報酬を腐敗させるのがより堅牢であることを示しています。
論文 参考訳(メタデータ) (2021-02-12T15:53:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。