論文の概要: Let Me Try Again: Examining Replay Behavior by Tracing Students' Latent Problem-Solving Pathways
- arxiv url: http://arxiv.org/abs/2601.11586v1
- Date: Sat, 03 Jan 2026 00:17:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-25 16:54:51.775395
- Title: Let Me Try Again: Examining Replay Behavior by Tracing Students' Latent Problem-Solving Pathways
- Title(参考訳): もう一度試してみよう: 生徒の遅発性問題解決道の追跡によるリプレイ行動の検討
- Authors: Shan Zhang, Siddhartha Pradhan, Ji-Eun Lee, Ashish Gurung, Anthony F. Botelho,
- Abstract要約: ゲームベースの学習環境における生徒の問題解決経路は、概念的理解、手続き的知識、柔軟性を反映している。
リプレイ行動は、特に、生産的な闘争またはより広範な探索を意味し、それによってより深い学習が促進される。
本研究は,777年生の学習プラットフォームFrom Here to There!をプレイするログデータに対して,Markov ChainsとHidden Markov Modelsを用いて,これらのギャップを解消する。
- 参考スコア(独自算出の注目度): 4.802354861089266
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Prior research has shown that students' problem-solving pathways in game-based learning environments reflect their conceptual understanding, procedural knowledge, and flexibility. Replay behaviors, in particular, may indicate productive struggle or broader exploration, which in turn foster deeper learning. However, little is known about how these pathways unfold sequentially across problems or how the timing of replays and other problem-solving strategies relates to proximal and distal learning outcomes. This study addresses these gaps using Markov Chains and Hidden Markov Models (HMMs) on log data from 777 seventh graders playing the game-based learning platform of From Here to There!. Results show that within problem sequences, students often persisted in states or engaged in immediate replay after successful completions, while across problems, strong self-transitions indicated stable strategic pathways. Four latent states emerged from HMMs: Incomplete-dominant, Optimal-ending, Replay, and Mixed. Regression analyses revealed that engagement in replay-dominant and optimal-ending states predicted higher conceptual knowledge, flexibility, and performance compared with the Incomplete-dominant state. Immediate replay consistently supported learning outcomes, whereas delayed replay was weakly or negatively associated in relation to Non-Replay. These findings suggest that replay in digital learning is not uniformly beneficial but depends on timing, with immediate replay supporting flexibility and more productive exploration.
- Abstract(参考訳): 従来の研究では、ゲームベースの学習環境における生徒の問題解決経路が、概念的理解、手続き的知識、柔軟性を反映していることが示されている。
リプレイ行動は、特に、生産的な闘争またはより広範な探索を意味し、それによってより深い学習が促進される。
しかし、これらの経路が問題に対してどのように順次展開するか、またリプレイのタイミングや他の問題解決戦略が、近位および遠位学習結果とどのように関係するかは分かっていない。
本研究は,ゲーム学習プラットフォーム「From Here to There!」をプレイする777年生のログデータに対して,マルコフチェインと隠れマルコフモデル(HMM)を用いて,これらのギャップを解消する。
と。
結果,課題系列では,学生は状態に留まったり,完了後に即時リプレイを行ったりすることが多かったが,課題を超えて,強い自己移行は安定した戦略経路を示した。
不完全支配、最適終了、リプレイ、混合の4つの潜伏状態がHMMから出現した。
回帰分析により、リプレイ支配状態と最適終了状態におけるエンゲージメントは、不完全支配状態と比較して高い概念的知識、柔軟性、パフォーマンスを予測した。
即時リプレイは学習結果を継続的に支持したが、遅延リプレイは非リプレイに関して弱いか負の関連があった。
これらの結果から,デジタル学習におけるリプレイは一様利益ではなくタイミングに左右され,即時リプレイは柔軟性とより生産的な探索を支援することが示唆された。
関連論文リスト
- Memory-enhanced Retrieval Augmentation for Long Video Understanding [91.7163732531159]
本稿では,メモリ強化型RAGベースの新しいアプローチであるMemVidを紹介する。
提案手法は,1) 全体的映像情報の記憶,2) メモリに基づくタスクの情報要求の推論,3) 情報要求に基づくクリティカルモーメントの検索,4) 最終回答を生成するための検索モーメントの抽出という4つの基本的なステップで機能する。
MemVid は LVLM 法と RAG 法に比較して, 効率と有効性を示す。
論文 参考訳(メタデータ) (2025-03-12T08:23:32Z) - Layerwise Proximal Replay: A Proximal Point Method for Online Continual Learning [22.00843101957619]
オンライン連続学習では、ニューラルネットワークは非i.d.データストリームから漸進的に学習する。
経験的なリプレイでトレーニングされたニューラルネットワークは、不安定な最適化軌道を持つ傾向があります。
本稿では、新しいデータと再生データからの学習のバランスを保ちながら、過去のデータの隠れたアクティベーションの段階的変化を許容するLayerwise Proximal Replay(LPR)を提案する。
論文 参考訳(メタデータ) (2024-02-14T19:34:28Z) - Integrating Curricula with Replays: Its Effects on Continual Learning [3.2489082010225494]
人間は、新しいスキルや知識を得る際に、カリキュラムを使って学習とレビューを行う。
目標は、人間の学習プロセスをエミュレートし、知識の保持を改善し、学習の伝達を容易にすることである。
継続学習エージェントにおける既存のリプレイ手法には、以前のタスクからのデータのランダムな選択と順序付けが含まれる。
論文 参考訳(メタデータ) (2023-07-08T14:14:55Z) - Adiabatic replay for continual learning [138.7878582237908]
生成的リプレイは、すでに知られていることを再学習するだけで、より多くの時間を費やします。
我々は、アディバティック・リプレイ(AR)と呼ぶリプレイベースのCL戦略を提案する。
VAEを用いた最先端の深層再生よりもARの方が優れていることを実験的に検証した。
論文 参考訳(メタデータ) (2023-03-23T10:18:06Z) - An Investigation of Replay-based Approaches for Continual Learning [79.0660895390689]
連続学習(CL)は機械学習(ML)の大きな課題であり、破滅的忘れ(CF)を伴わずに連続的に複数のタスクを学習する能力を記述する。
いくつかの解クラスが提案されており、その単純さと堅牢性から、いわゆるリプレイベースのアプローチは非常に有望であるように思われる。
連続学習におけるリプレイに基づくアプローチを実証的に検討し,応用の可能性を評価する。
論文 参考訳(メタデータ) (2021-08-15T15:05:02Z) - Reducing Representation Drift in Online Continual Learning [87.71558506591937]
私たちは、エージェントが制限されたメモリと計算で変化する分布から学ぶ必要があるオンライン連続学習パラダイムを研究します。
この作業では、入ってくるデータストリームに未観測のクラスサンプルが導入されることにより、事前に観測されたデータの表現の変化に焦点を合わせます。
論文 参考訳(メタデータ) (2021-04-11T15:19:30Z) - Revisiting Fundamentals of Experience Replay [91.24213515992595]
本稿では,Q-ラーニング手法における経験リプレイの体系的および広範囲な分析について述べる。
我々は、リプレイ能力と、収集した経験に対する学習更新率の2つの基本特性に焦点を当てた。
論文 参考訳(メタデータ) (2020-07-13T21:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。