論文の概要: Bag of States: A Non-sequential Approach to Video-based Engagement
Measurement
- arxiv url: http://arxiv.org/abs/2301.06730v1
- Date: Tue, 17 Jan 2023 07:12:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-18 14:47:28.866619
- Title: Bag of States: A Non-sequential Approach to Video-based Engagement
Measurement
- Title(参考訳): Bag of States: ビデオベースエンゲージメント計測における非逐次的アプローチ
- Authors: Ali Abedi, Chinchu Thomas, Dinesh Babu Jayagopi, and Shehroz S. Khan
- Abstract要約: 学生の行動的・感情的状態は、そのエンゲージメントのレベルを測定するために、きめ細かい時間スケールで分析する必要がある。
既存の多くのアプローチは、ビデオから学生のエンゲージメントを測定するために、繰り返しニューラルネットワーク、時間畳み込みネットワーク、三次元畳み込みニューラルネットワークなどのシーケンシャルモデルとテンポラルモデルを開発した。
本研究では,学生の行動状態と感情状態のみをモデル化・解析し,それらの発生順序をモデル化する。
- 参考スコア(独自算出の注目度): 7.864500429933145
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatic measurement of student engagement provides helpful information for
instructors to meet learning program objectives and individualize program
delivery. Students' behavioral and emotional states need to be analyzed at
fine-grained time scales in order to measure their level of engagement. Many
existing approaches have developed sequential and spatiotemporal models, such
as recurrent neural networks, temporal convolutional networks, and
three-dimensional convolutional neural networks, for measuring student
engagement from videos. These models are trained to incorporate the order of
behavioral and emotional states of students into video analysis and output
their level of engagement. In this paper, backed by educational psychology, we
question the necessity of modeling the order of behavioral and emotional states
of students in measuring their engagement. We develop bag-of-words-based models
in which only the occurrence of behavioral and emotional states of students is
modeled and analyzed and not the order in which they occur. Behavioral and
affective features are extracted from videos and analyzed by the proposed
models to determine the level of engagement in an ordinal-output classification
setting. Compared to the existing sequential and spatiotemporal approaches for
engagement measurement, the proposed non-sequential approach improves the
state-of-the-art results. According to experimental results, our method
significantly improved engagement level classification accuracy on the IIITB
Online SE dataset by 26% compared to sequential models and achieved engagement
level classification accuracy as high as 66.58% on the DAiSEE student
engagement dataset.
- Abstract(参考訳): 学生のエンゲージメントの自動測定は、教師が学習プログラムの目標を満たし、プログラム配信を個別化するのに役立つ情報を提供する。
学生の行動状態と感情状態は、エンゲージメントのレベルを測定するために、きめ細かい時間スケールで分析する必要がある。
既存の多くのアプローチは、ビデオから学生のエンゲージメントを測定するために、繰り返しニューラルネットワーク、時間的畳み込みネットワーク、三次元畳み込みニューラルネットワークなどの逐次的および時空間モデルを開発した。
これらのモデルは、学生の行動と感情の順番をビデオ分析に取り入れ、エンゲージメントのレベルを出力するように訓練されている。
本稿では, 教育心理学を基盤として, 学生の行動・感情の順序をモデル化する必要性について疑問を呈する。
学生の行動状態や感情状態の出現のみをモデル化し,その発生順序ではなく分析する,言葉の袋型モデルを開発した。
ビデオから行動的・情緒的特徴を抽出し,提案モデルを用いて分析し,順序出力分類におけるエンゲージメントのレベルを決定する。
既存のエンゲージメント測定の逐次的および時空間的アプローチと比較して、提案手法は最先端の結果を改善する。
実験結果から,3TB Online SEデータセットのエンゲージメントレベル分類精度は,シーケンシャルモデルと比較して26%向上し,DAiSEE学生エンゲージメントデータセットでは66.58%のエンゲージメントレベル分類精度を達成した。
関連論文リスト
- Engagement Measurement Based on Facial Landmarks and Spatial-Temporal Graph Convolutional Networks [2.4343669357792708]
本稿では,ビデオからのエンゲージメント測定のための新しいプライバシ保護手法を提案する。
MediaPipeのディープラーニングソリューションを通じてビデオから抽出された、個人識別可能な情報を持たない顔のランドマークを使用している。
提案手法は,仮想学習プラットフォーム上に展開し,リアルタイムにエンゲージメントを測定することができる。
論文 参考訳(メタデータ) (2024-03-25T20:43:23Z) - Skeleton2vec: A Self-supervised Learning Framework with Contextualized
Target Representations for Skeleton Sequence [56.092059713922744]
予測対象として高レベルな文脈化機能を使用することで,優れた性能が得られることを示す。
具体的には、シンプルで効率的な3D行動表現学習フレームワークであるSkeleton2vecを提案する。
提案するSkeleton2vecは,従来の手法より優れ,最先端の結果が得られる。
論文 参考訳(メタデータ) (2024-01-01T12:08:35Z) - A Control-Centric Benchmark for Video Prediction [69.22614362800692]
本稿では,アクション条件付きビデオ予測のベンチマークを,制御ベンチマークの形式で提案する。
私たちのベンチマークには、11のタスクカテゴリと310のタスクインスタンス定義を備えたシミュレーション環境が含まれています。
次に、ベンチマークを活用して、スケールするモデルサイズ、トレーニングデータの量、モデルアンサンブルの影響を調査します。
論文 参考訳(メタデータ) (2023-04-26T17:59:45Z) - Multi-Layer Personalized Federated Learning for Mitigating Biases in Student Predictive Analytics [8.642174401125263]
本稿では,学生グループ化基準の異なる層にまたがる推論精度を最適化する多層パーソナライズドフェデレーションラーニング手法を提案する。
提案手法では,個別の学生サブグループに対するパーソナライズされたモデルがグローバルモデルから導出される。
3つの実世界のオンラインコースデータセットの実験は、既存の学生モデルベンチマークよりも、我々のアプローチによって達成された大きな改善を示している。
論文 参考訳(メタデータ) (2022-12-05T17:27:28Z) - Predicting student performance using sequence classification with
time-based windows [1.5836913530330787]
本研究では,学生の行動データから得られた逐次的パターンに基づいて,正確な予測モデルを構築することができることを示す。
本稿では,行動データの時間的側面を把握し,モデルの性能予測に与える影響を解析する手法を提案する。
改良されたシーケンス分類手法は,高レベルの精度で生徒のパフォーマンスを予測でき,コース固有のモデルでは90%に達する。
論文 参考訳(メタデータ) (2022-08-16T13:46:39Z) - Mitigating Biases in Student Performance Prediction via Attention-Based
Personalized Federated Learning [7.040747348755578]
従来の学習に基づく学生モデリングのアプローチは、データの可用性のバイアスにより、表現不足の学生グループにあまり一般化しない。
本研究では,オンライン学習活動から学生のパフォーマンスを予測する手法を提案し,人種や性別などの異なる集団を対象とした推論精度を最適化する。
論文 参考訳(メタデータ) (2022-08-02T00:22:20Z) - Mixed Effects Neural ODE: A Variational Approximation for Analyzing the
Dynamics of Panel Data [50.23363975709122]
パネルデータ解析に(固定・ランダムな)混合効果を取り入れたME-NODEという確率モデルを提案する。
我々は、Wong-Zakai定理によって提供されるSDEの滑らかな近似を用いて、我々のモデルを導出できることを示す。
次に、ME-NODEのためのエビデンスに基づく下界を導出し、(効率的な)トレーニングアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-02-18T22:41:51Z) - Self-Regulated Learning for Egocentric Video Activity Anticipation [147.9783215348252]
自己制御学習(SRL)は、中間表現を連続的に制御し、現在のタイムスタンプのフレームにおける新しい情報を強調する表現を作り出すことを目的としている。
SRLは2つのエゴセントリックなビデオデータセットと2つの第三者のビデオデータセットにおいて、既存の最先端技術よりも大幅に優れています。
論文 参考訳(メタデータ) (2021-11-23T03:29:18Z) - Efficient Modelling Across Time of Human Actions and Interactions [92.39082696657874]
3つの畳み込みニューラルネットワーク(CNND)における現在の固定サイズの時間的カーネルは、入力の時間的変動に対処するために改善できると主張している。
我々は、アーキテクチャの異なるレイヤにまたがる機能の違いを強化することで、アクションのクラス間でどのようにうまく対処できるかを研究する。
提案手法は、いくつかのベンチマークアクション認識データセットで評価され、競合する結果を示す。
論文 参考訳(メタデータ) (2021-10-05T15:39:11Z) - Affect-driven Engagement Measurement from Videos [0.8545305424564517]
仮想学習プログラムにおいて,ビデオによるエンゲージメント測定のための新しい手法を提案する。
ディープラーニングベースの時間モデルと従来の機械学習ベースの非時間モデルをトレーニングし、検証する。
実験の結果,最先端のエンゲージメントレベル分類精度は63.3%,非エンゲージメントビデオの正確な分類が得られた。
論文 参考訳(メタデータ) (2021-06-21T06:49:17Z) - Unified Graph Structured Models for Video Understanding [93.72081456202672]
リレーショナル・テンポラル関係を明示的にモデル化するメッセージパッシンググラフニューラルネットワークを提案する。
本手法は,シーン内の関連エンティティ間の関係をより効果的にモデル化できることを示す。
論文 参考訳(メタデータ) (2021-03-29T14:37:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。