論文の概要: Using Think-Aloud Data to Understand Relations between Self-Regulation
Cycle Characteristics and Student Performance in Intelligent Tutoring Systems
- arxiv url: http://arxiv.org/abs/2312.05675v1
- Date: Sat, 9 Dec 2023 20:36:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 19:24:24.621908
- Title: Using Think-Aloud Data to Understand Relations between Self-Regulation
Cycle Characteristics and Student Performance in Intelligent Tutoring Systems
- Title(参考訳): 思考音響データを用いた知能学習システムにおける自己調節サイクル特性と学生のパフォーマンスの関係
- Authors: Conrad Borchers, Jiayi Zhang, Ryan S. Baker, Vincent Aleven
- Abstract要約: 本研究では,学習者のモーメント・バイ・モーメントのパフォーマンスとSRLの挙動について検討する。
本稿では,AI生成した思考情報に基づくSRL行動のラベル付けの実現可能性を示す。
SRLサイクルの進行過程における学生の行動は、後のSRLサイクルの段階よりも、問題解決時のモーメント・バイ・モーメントの正しさが低かった。
- 参考スコア(独自算出の注目度): 15.239133633467672
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Numerous studies demonstrate the importance of self-regulation during
learning by problem-solving. Recent work in learning analytics has largely
examined students' use of SRL concerning overall learning gains. Limited
research has related SRL to in-the-moment performance differences among
learners. The present study investigates SRL behaviors in relationship to
learners' moment-by-moment performance while working with intelligent tutoring
systems for stoichiometry chemistry. We demonstrate the feasibility of labeling
SRL behaviors based on AI-generated think-aloud transcripts, identifying the
presence or absence of four SRL categories (processing information, planning,
enacting, and realizing errors) in each utterance. Using the SRL codes, we
conducted regression analyses to examine how the use of SRL in terms of
presence, frequency, cyclical characteristics, and recency relate to student
performance on subsequent steps in multi-step problems. A model considering
students' SRL cycle characteristics outperformed a model only using
in-the-moment SRL assessment. In line with theoretical predictions, students'
actions during earlier, process-heavy stages of SRL cycles exhibited lower
moment-by-moment correctness during problem-solving than later SRL cycle
stages. We discuss system re-design opportunities to add SRL support during
stages of processing and paths forward for using machine learning to speed
research depending on the assessment of SRL based on transcription of
think-aloud data.
- Abstract(参考訳): 多くの研究が問題解決による学習における自己統制の重要性を示している。
学習分析における最近の研究は、学習の全体的な利益に関する学生のSRLの使用について大きく調査している。
SRLは学習者間での動作性能の違いに関連している。
本研究では,学習者のモーメント・バイ・モーメント(モーメント・バイ・モーメント,モーメント・パフォーマンス)とsrlの挙動について検討した。
本稿では,ai生成の思考素片に基づくsrl行動のラベリングの実現可能性を示し,各発話における4つのsrlカテゴリ(情報処理,計画,実行,誤りの実現)の存在の有無を同定する。
SRL符号を用いた回帰分析を行い,SRLの出現,頻度,周期特性,および遅延が,その後の複数段階の問題における学生のパフォーマンスとどのように関係しているかを検討した。
学生のSRLサイクル特性を考慮したモデルでは、運動中のSRL評価のみを用いたモデルよりも優れていた。
理論的予測に従えば,SRLサイクルのプロセス重度段階における学生の行動は,後のSRLサイクル段階よりも,問題解決時のモーメント・バイ・モーメントの正しさが低かった。
本稿では,学習過程においてSRLを付加するシステム再設計の機会について論じる。また,思考音声データの書き起こしに基づくSRLの評価にもとづいて,機械学習を用いて研究を高速化するための道筋について考察する。
関連論文リスト
- RLInspect: An Interactive Visual Approach to Assess Reinforcement Learning Algorithm [0.0]
強化学習(Reinforcement Learning, RL)は、機械学習の急速に成長する分野である。
RLモデルを評価することは困難であり、その振る舞いを理解するのが難しくなる。
我々はインタラクティブな視覚分析ツールであるRLInspectを開発した。
RLモデルのさまざまなコンポーネント - 状態、アクション、エージェントアーキテクチャ、報酬 - を考慮しており、RLトレーニングのより包括的なビューを提供する。
論文 参考訳(メタデータ) (2024-11-13T07:24:14Z) - Overcoming Slow Decision Frequencies in Continuous Control: Model-Based Sequence Reinforcement Learning for Model-Free Control [1.104960878651584]
本稿では、与えられた入力状態に対するアクションのシーケンスを生成するために設計されたRLアルゴリズムであるSequence Reinforcement Learning(SRL)を紹介する。
SRLは、異なる時間スケールで動作するモデルとアクタークリティカルアーキテクチャの両方を利用することで、アクションシーケンスを学習する際の課題に対処する。
我々は,SRLを一連の連続制御タスクで評価し,その性能が最先端のアルゴリズムに匹敵することを示した。
論文 参考訳(メタデータ) (2024-10-11T16:54:07Z) - Reinforcement Learning-assisted Evolutionary Algorithm: A Survey and
Research Opportunities [63.258517066104446]
進化的アルゴリズムの構成要素として統合された強化学習は,近年,優れた性能を示している。
本稿では,RL-EA 統合手法,RL-EA が採用する RL-EA 支援戦略,および既存文献による適用について論じる。
RL-EAセクションの適用例では、RL-EAのいくつかのベンチマークおよび様々な公開データセットにおける優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-25T15:06:05Z) - A User Study on Explainable Online Reinforcement Learning for Adaptive
Systems [0.802904964931021]
オンライン強化学習(RL)は、設計時間の不確実性の存在下で適応システムの実現にますます利用されている。
深いRLが関心を持つようになると、学習された知識はもはや明示的に表現されるのではなく、ニューラルネットワークとして表現される。
XRL-DINEは、重要な時点において決定が下された理由に関する視覚的な洞察を提供する。
論文 参考訳(メタデータ) (2023-07-09T05:12:42Z) - POAR: Efficient Policy Optimization via Online Abstract State
Representation Learning [6.171331561029968]
状態表現学習(SRL)は,複雑な感覚データからタスク関連特徴を低次元状態に符号化する。
我々は、SRLの解釈を改善するために、専門家のデモンストレーションを活用するために、ドメイン類似と呼ばれる新しいSRLを導入する。
我々はPOARを実証的に検証し、高次元のタスクを効率的に処理し、スクラッチから直接実生活ロボットの訓練を容易にする。
論文 参考訳(メタデータ) (2021-09-17T16:52:03Z) - Towards Standardizing Reinforcement Learning Approaches for Stochastic
Production Scheduling [77.34726150561087]
強化学習はスケジューリングの問題を解決するのに使える。
既存の研究は、コードが利用できない複雑なシミュレーションに依存している。
から選ぶべきRLの設計の広大な配列があります。
モデル記述の標準化 - 生産セットアップとRL設計の両方 - と検証スキームは前提条件です。
論文 参考訳(メタデータ) (2021-04-16T16:07:10Z) - Combining Pessimism with Optimism for Robust and Efficient Model-Based
Deep Reinforcement Learning [56.17667147101263]
実世界のタスクでは、強化学習エージェントはトレーニング中に存在しない状況に遭遇する。
信頼性を確保するため、RLエージェントは最悪の状況に対して堅牢性を示す必要がある。
本稿では,Robust Hallucinated Upper-Confidence RL (RH-UCRL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-18T16:50:17Z) - Towards Continual Reinforcement Learning: A Review and Perspectives [69.48324517535549]
我々は,連続的強化学習(RL)に対する異なる定式化とアプローチの文献レビューの提供を目的とする。
まだ初期段階だが、継続的なrlの研究は、よりインクリメンタルな強化学習者を開発することを約束している。
これには、医療、教育、物流、ロボット工学などの分野の応用が含まれる。
論文 参考訳(メタデータ) (2020-12-25T02:35:27Z) - Deep Reinforcement Learning using Cyclical Learning Rates [62.19441737665902]
勾配降下(SGD)に基づく最適化手順における最も影響力のあるパラメータの1つは、学習率である。
循環学習について検討し,様々なDRL問題に対する一般循環学習率の定義法を提案する。
本実験により, 循環学習は, 高度に調整された固定学習率よりも, 類似あるいは良好な結果が得られることがわかった。
論文 参考訳(メタデータ) (2020-07-31T10:06:02Z) - RL Unplugged: A Suite of Benchmarks for Offline Reinforcement Learning [108.9599280270704]
オフラインのRL手法を評価・比較するためのRL Unpluggedというベンチマークを提案する。
RL Unpluggedにはゲームやシミュレートされたモーター制御問題を含むさまざまな領域のデータが含まれている。
本論文で提示した全タスクのデータと,全アルゴリズムをオープンソースとして公開する。
論文 参考訳(メタデータ) (2020-06-24T17:14:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。