論文の概要: Leveraging Affect Transfer Learning for Behavior Prediction in an
Intelligent Tutoring System
- arxiv url: http://arxiv.org/abs/2002.05242v2
- Date: Fri, 8 Apr 2022 20:58:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 19:55:36.788832
- Title: Leveraging Affect Transfer Learning for Behavior Prediction in an
Intelligent Tutoring System
- Title(参考訳): 知的チュータシステムにおける行動予測のための影響伝達学習の活用
- Authors: Nataniel Ruiz, Hao Yu, Danielle A. Allessio, Mona Jalal, Ajjen Joshi,
Thomas Murray, John J. Magee, Jacob R. Whitehill, Vitaly Ablavsky, Ivon
Arroyo, Beverly P. Woolf, Stan Sclaroff, Margrit Betke
- Abstract要約: 知的学習システム(ITS)で作業する学生の問題点を予測するためのビデオベースの転帰学習手法を提案する。
学生の顔やジェスチャーを分析して、ビデオフィードからITSの課題に答える学生の結果を予測する。
- 参考スコア(独自算出の注目度): 32.63911260416332
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we propose a video-based transfer learning approach for
predicting problem outcomes of students working with an intelligent tutoring
system (ITS). By analyzing a student's face and gestures, our method predicts
the outcome of a student answering a problem in an ITS from a video feed. Our
work is motivated by the reasoning that the ability to predict such outcomes
enables tutoring systems to adjust interventions, such as hints and
encouragement, and to ultimately yield improved student learning. We collected
a large labeled dataset of student interactions with an intelligent online math
tutor consisting of 68 sessions, where 54 individual students solved 2,749
problems. The dataset is public and available at
https://www.cs.bu.edu/faculty/betke/research/learning/ . Working with this
dataset, our transfer-learning challenge was to design a representation in the
source domain of pictures obtained "in the wild" for the task of facial
expression analysis, and transferring this learned representation to the task
of human behavior prediction in the domain of webcam videos of students in a
classroom environment. We developed a novel facial affect representation and a
user-personalized training scheme that unlocks the potential of this
representation. We designed several variants of a recurrent neural network that
models the temporal structure of video sequences of students solving math
problems. Our final model, named ATL-BP for Affect Transfer Learning for
Behavior Prediction, achieves a relative increase in mean F-score of 50% over
the state-of-the-art method on this new dataset.
- Abstract(参考訳): 本研究では,知的チューリングシステム(ITS)で作業している学生の問題点を予測するための,ビデオによるトランスファー学習手法を提案する。
学生の顔やジェスチャーを解析することにより,映像フィードから生徒がsosで問題に答える結果を予測する。
私たちの研究は、このような結果を予測する能力によって、指導システムはヒントや励ましなどの介入を調整でき、最終的には生徒の学習を改善することができるという推論に動機づけられています。
2,749の課題を解決した68のセッションからなる、インテリジェントなオンライン算数チューターと学生の対話に関する大規模なラベル付きデータセットを収集した。
データセットはhttps://www.cs.bu.edu/faculty/betke/research/learning/で公開されている。
このデータセットを用いて,表情分析の課題として「野生の」画像のソース領域の表現をデザインし,学習した表現を授業環境における学生のウェブカメラ映像の領域における人間の行動予測の課題に移すことを課題とした。
我々は,この表現の可能性を解き明かす新たな顔情動表現と,ユーザ個人化トレーニングスキームを開発した。
数学問題を解く学生の映像シーケンスの時間構造をモデル化するリカレントニューラルネットワークの変種をいくつか設計した。
我々の最終モデルはATL-BP for Affect Transfer Learning for Behavior Predictionと呼ばれ、新しいデータセットの最先端手法に比べて50%の平均Fスコアが相対的に増加する。
関連論文リスト
- Detecting Unsuccessful Students in Cybersecurity Exercises in Two Different Learning Environments [0.37729165787434493]
本稿では,学生の難易度を予測するための自動ツールを開発する。
潜在的な応用として、このようなモデルは、苦労している生徒を検知し、目標とする支援を提供するインストラクターを助けることができる。
論文 参考訳(メタデータ) (2024-08-16T04:57:54Z) - ClickTree: A Tree-based Method for Predicting Math Students' Performance Based on Clickstream Data [0.0]
我々は,学生のクリックストリームデータに基づいて,数学的課題における生徒のパフォーマンスを予測するための木ベースの手法であるClickTreeを開発した。
この手法は2023年の教育データマイニングカップで0.78844のAUCを達成し、大会では2位となった。
エンド・ユニット・アサイン問題への回答が良好であった学生は、イン・ユニット・アサイン問題により関与し、より多くの問題に正しく答えた。
論文 参考訳(メタデータ) (2024-03-01T23:39:03Z) - What Makes Pre-Trained Visual Representations Successful for Robust
Manipulation? [57.92924256181857]
照明やシーンテクスチャの微妙な変化の下では,操作や制御作業のために設計された視覚表現が必ずしも一般化されないことがわかった。
創発的セグメンテーション能力は,ViTモデルにおける分布外一般化の強い予測因子であることがわかった。
論文 参考訳(メタデータ) (2023-11-03T18:09:08Z) - Generalisable Methods for Early Prediction in Interactive Simulations
for Education [5.725477071353353]
シミュレーションにおける生徒のインタラクションデータを,期待性能に基づいて分類することは,適応的な指導を可能にする可能性がある。
まず,学生のタスク内動作を通して概念的理解を計測する。
そこで,我々は,クリックストリームデータから,シミュレーションの状態と学生の行動の両方をエンコードする,新しいタイプの特徴を提案する。
論文 参考訳(メタデータ) (2022-07-04T14:46:56Z) - A Few-shot Learning Graph Multi-Trajectory Evolution Network for
Forecasting Multimodal Baby Connectivity Development from a Baseline
Timepoint [53.73316520733503]
本稿では,教師-学生パラダイムを取り入れたグラフ多目的進化ネットワーク(GmTE-Net)を提案する。
これは、脳グラフ多軌道成長予測に適した最初の教師学生アーキテクチャである。
論文 参考訳(メタデータ) (2021-10-06T08:26:57Z) - Visual Adversarial Imitation Learning using Variational Models [60.69745540036375]
逆関数仕様は、深い強化学習を通しての学習行動にとって大きな障害であり続けている。
望ましい行動の視覚的なデモンストレーションは、エージェントを教えるためのより簡単で自然な方法を示すことが多い。
変動モデルに基づく対向的模倣学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-07-16T00:15:18Z) - Jointly Modeling Heterogeneous Student Behaviors and Interactions Among
Multiple Prediction Tasks [35.15654921278549]
学生の予測課題は学生と大学生の両方にとって実用的な意味を持つ。
本稿では,不均一な振る舞いをモデル化し,複数の予測を行う。
大学から収集した実世界のデータセットに基づいて,モチベーション行動予測タスクを3つ設計する。
論文 参考訳(メタデータ) (2021-03-25T02:01:58Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z) - Peer-inspired Student Performance Prediction in Interactive Online
Question Pools with Graph Neural Network [56.62345811216183]
本稿では,対話型オンライン質問プールにおいて,より優れた生徒のパフォーマンス予測を実現するために,グラフニューラルネットワーク(GNN)を用いた新しいアプローチを提案する。
具体的には,学生のインタラクションを用いた学生と質問の関係をモデル化し,学生のインタラクション・クエストネットワークを構築する。
1631の質問に対して4000人以上の学生の問題解決過程において生成した104,113個のマウス軌跡からなる実世界のデータセットに対するアプローチの有効性を評価した。
論文 参考訳(メタデータ) (2020-08-04T14:55:32Z) - Emotion Recognition on large video dataset based on Convolutional
Feature Extractor and Recurrent Neural Network [0.2855485723554975]
我々のモデルは、畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)を組み合わせて、ビデオデータ上での次元的感情を予測する。
実験は、最新のAff-Wild2データベースを含む、公開データセットで実施されている。
論文 参考訳(メタデータ) (2020-06-19T14:54:13Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。