論文の概要: Measuring Student Behavioral Engagement using Histogram of Actions
- arxiv url: http://arxiv.org/abs/2307.09420v1
- Date: Tue, 18 Jul 2023 16:37:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-19 13:45:00.306238
- Title: Measuring Student Behavioral Engagement using Histogram of Actions
- Title(参考訳): 行動ヒストグラムを用いた学生行動エンゲージメントの測定
- Authors: Ahmed Abdelkawy, Islam Alkabbany, Asem Ali and Aly Farag
- Abstract要約: 提案手法は学生の行動を認識し,学生の行動エンゲージメントレベルを予測する。
学生の行動認識には、人間の骨格を用いて、学生の姿勢と上半身の動きをモデル化する。
トレーニングされた3D-CNNモデルは、2分間のビデオセグメントごとにアクションを認識するために使用される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a novel technique for measuring behavioral
engagement through students' actions recognition. The proposed approach
recognizes student actions then predicts the student behavioral engagement
level. For student action recognition, we use human skeletons to model student
postures and upper body movements. To learn the dynamics of student upper body,
a 3D-CNN model is used. The trained 3D-CNN model is used to recognize actions
within every 2minute video segment then these actions are used to build a
histogram of actions which encodes the student actions and their frequencies.
This histogram is utilized as an input to SVM classifier to classify whether
the student is engaged or disengaged. To evaluate the proposed framework, we
build a dataset consisting of 1414 2-minute video segments annotated with 13
actions and 112 video segments annotated with two engagement levels.
Experimental results indicate that student actions can be recognized with top 1
accuracy 83.63% and the proposed framework can capture the average engagement
of the class.
- Abstract(参考訳): 本稿では,学生の行動認識を通じて行動の関与度を測定する新しい手法を提案する。
提案手法は学生行動を認識し,学生の行動エンゲージメントレベルを予測する。
学生の行動認識には人間の骨格を用いて姿勢や上半身の動きをモデル化する。
生徒の上半身の力学を学習するために3D-CNNモデルを用いる。
トレーニングされた3d-cnnモデルは、2分間のビデオセグメントごとにアクションを認識するために使用され、これらのアクションは学生のアクションとその頻度をエンコードするアクションのヒストグラムを構築するために使用される。
このヒストグラムはSVM分類器への入力として利用され、学生のエンゲージメントの有無を分類する。
提案手法を評価するために,13のアクションを付加した1414の2分間のビデオセグメントと2つのエンゲージメントレベルを付加した112の動画セグメントからなるデータセットを構築した。
実験の結果、生徒の行動はトップ1の精度83.63%で認識でき、提案フレームワークはクラスの平均エンゲージメントを捉えることができる。
関連論文リスト
- Long-term Human Participation Assessment In Collaborative Learning Environments Using Dynamic Scene Analysis [2.115993069505241]
本研究では,実生活における協調学習環境における学生の参加を評価するためのデータセットと手法を開発する。
本研究では,学生集団が他グループからの強い背景干渉を検知し,グループ内の動的参加者追跡を行うという2つのサブプロブレムに学生の参加を評価することの問題点を定式化する。
論文 参考訳(メタデータ) (2024-04-14T21:39:00Z) - Early Action Recognition with Action Prototypes [62.826125870298306]
本稿では,各クラスに対するフルアクションのプロトタイプ表現を学習する新しいモデルを提案する。
映像を短いクリップに分解し、視覚エンコーダがそれぞれのクリップから特徴を独立して抽出する。
その後、デコーダは、最終クラスの予測のために、すべてのクリップからオンラインのファッション機能として集約される。
論文 参考訳(メタデータ) (2023-12-11T18:31:13Z) - Bag of States: A Non-sequential Approach to Video-based Engagement
Measurement [7.864500429933145]
学生の行動的・感情的状態は、そのエンゲージメントのレベルを測定するために、きめ細かい時間スケールで分析する必要がある。
既存の多くのアプローチは、ビデオから学生のエンゲージメントを測定するために、繰り返しニューラルネットワーク、時間畳み込みネットワーク、三次元畳み込みニューラルネットワークなどのシーケンシャルモデルとテンポラルモデルを開発した。
本研究では,学生の行動状態と感情状態のみをモデル化・解析し,それらの発生順序をモデル化する。
論文 参考訳(メタデータ) (2023-01-17T07:12:34Z) - Learning Action-Effect Dynamics from Pairs of Scene-graphs [50.72283841720014]
本稿では,画像のシーングラフ表現を利用して,自然言語で記述された行動の効果を推論する手法を提案する。
提案手法は,既存のモデルと比較して,性能,データ効率,一般化能力の点で有効である。
論文 参考訳(メタデータ) (2022-12-07T03:36:37Z) - Generative Action Description Prompts for Skeleton-based Action
Recognition [15.38417530693649]
本稿では,骨格に基づく行動認識のためのGAP(Generative Action-Description Prompts)アプローチを提案する。
本研究では,行動の身体部分の動きのテキスト記述を自動的に生成する知識エンジンとして,事前学習された大規模言語モデルを用いる。
提案手法は,推定コストを伴わずに,様々なベースラインモデルに対して顕著な改善を実現する。
論文 参考訳(メタデータ) (2022-08-10T12:55:56Z) - Self-Regulated Learning for Egocentric Video Activity Anticipation [147.9783215348252]
自己制御学習(SRL)は、中間表現を連続的に制御し、現在のタイムスタンプのフレームにおける新しい情報を強調する表現を作り出すことを目的としている。
SRLは2つのエゴセントリックなビデオデータセットと2つの第三者のビデオデータセットにおいて、既存の最先端技術よりも大幅に優れています。
論文 参考訳(メタデータ) (2021-11-23T03:29:18Z) - Skeleton-Based Mutually Assisted Interacted Object Localization and
Human Action Recognition [111.87412719773889]
本研究では,骨格データに基づく「相互作用対象の局所化」と「人間の行動認識」のための共同学習フレームワークを提案する。
本手法は,人間の行動認識のための最先端の手法を用いて,最高の,あるいは競争的な性能を実現する。
論文 参考訳(メタデータ) (2021-10-28T10:09:34Z) - Skeleton-DML: Deep Metric Learning for Skeleton-Based One-Shot Action
Recognition [0.5161531917413706]
ワンショットアクション認識は、単一のトレーニング例だけで、人間のパフォーマンスアクションの認識を可能にする。
これは、ロボットが以前に見つからなかった行動に反応できるようにすることで、人間とロボットの相互作用に正の影響を与える。
本稿では,メートル法学習環境において良好に機能する新しい画像に基づく骨格表現を提案する。
論文 参考訳(メタデータ) (2020-12-26T22:31:11Z) - Memory-augmented Dense Predictive Coding for Video Representation
Learning [103.69904379356413]
本稿では,新しいアーキテクチャと学習フレームワーク Memory-augmented Predictive Coding (MemDPC) を提案する。
本稿では、RGBフレームからの視覚のみの自己教師付きビデオ表現学習や、教師なし光学フローからの学習、あるいはその両方について検討する。
いずれの場合も、トレーニングデータの桁数が桁違いに少ない他のアプローチに対して、最先端または同等のパフォーマンスを示す。
論文 参考訳(メタデータ) (2020-08-03T17:57:01Z) - Recognition of Instrument-Tissue Interactions in Endoscopic Videos via
Action Triplets [9.517537672430006]
ツール活動を表すアクション三重奏楽器,動詞,ターゲット>としてモデル化された,きめ細かい活動の認識に取り組む。
公開データセットであるColec80から40本のビデオで構成され、128のトリプルトクラスを使用してすべてのフレームを注釈付けした新しい腹腔鏡データセットColecT40を紹介した。
論文 参考訳(メタデータ) (2020-07-10T14:17:10Z) - Delving into 3D Action Anticipation from Streaming Videos [99.0155538452263]
アクション予測は、部分的な観察でアクションを認識することを目的としている。
本稿では,いくつかの相補的評価指標を導入し,フレームワイド動作分類に基づく基本モデルを提案する。
また,全動作表現とクラス非依存行動ラベルという2つの側面から補助情報を取り入れたマルチタスク学習戦略についても検討する。
論文 参考訳(メタデータ) (2019-06-15T10:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。