論文の概要: Detecting Disengagement in Virtual Learning as an Anomaly
- arxiv url: http://arxiv.org/abs/2211.06870v1
- Date: Sun, 13 Nov 2022 10:29:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 18:26:32.897897
- Title: Detecting Disengagement in Virtual Learning as an Anomaly
- Title(参考訳): 異常としての仮想学習における離脱検出
- Authors: Ali Abedi and Shehroz S. Khan
- Abstract要約: 学生エンゲージメントは、仮想学習プログラムの目標を達成する上で重要な要素である。
本稿では,仮想学習における解離を異常検出問題として定式化する。
我々は、時間畳み込みネットワークオートエンコーダ、長期記憶オートエンコーダなど、様々なオートエンコーダを設計する。
- 参考スコア(独自算出の注目度): 4.706263507340607
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Student engagement is an important factor in meeting the goals of virtual
learning programs. Automatic measurement of student engagement provides helpful
information for instructors to meet learning program objectives and
individualize program delivery. Many existing approaches solve video-based
engagement measurement using the traditional frameworks of binary
classification (classifying video snippets into engaged or disengaged classes),
multi-class classification (classifying video snippets into multiple classes
corresponding to different levels of engagement), or regression (estimating a
continuous value corresponding to the level of engagement). However, we observe
that while the engagement behaviour is mostly well-defined (e.g., focused, not
distracted), disengagement can be expressed in various ways. In addition, in
some cases, the data for disengaged classes may not be sufficient to train
generalizable binary or multi-class classifiers. To handle this situation, in
this paper, for the first time, we formulate detecting disengagement in virtual
learning as an anomaly detection problem. We design various autoencoders,
including temporal convolutional network autoencoder, long-short-term memory
autoencoder, and feedforward autoencoder using different behavioral and affect
features for video-based student disengagement detection. The result of our
experiments on two publicly available student engagement datasets, DAiSEE and
EmotiW, shows the superiority of the proposed approach for disengagement
detection as an anomaly compared to binary classifiers for classifying videos
into engaged versus disengaged classes (with an average improvement of 9% on
the area under the curve of the receiver operating characteristic curve and 22%
on the area under the curve of the precision-recall curve).
- Abstract(参考訳): 学生エンゲージメントは、仮想学習プログラムの目標を達成する上で重要な要素である。
学生のエンゲージメントの自動測定は、教師が学習プログラムの目標を満たし、プログラム配信を個別化するのに役立つ情報を提供する。
既存の多くのアプローチは、バイナリ分類(ビデオスニペットをエンゲージメントクラスまたは非エンゲージメントクラスに分類する)、マルチクラス分類(ビデオスニペットを異なるエンゲージメントレベルに対応する複数のクラスに分類する)、レグレッション(エンゲージメントレベルに対応する連続的な値を推定する)といった従来のフレームワークを使用して、ビデオベースのエンゲージメント測定を解決する。
しかしながら、エンゲージメントの振る舞いは、主に明確に定義されている(例えば、集中的であり、注意をそらさない)が、インエンゲージメントは様々な方法で表現できる。
さらに、いくつかのケースでは、非統合クラスのデータは、一般化可能なバイナリやマルチクラスの分類器を訓練するのに十分なものではない。
そこで本稿では,このような状況に対処するために,まず,異常検出問題として,仮想学習における障害検出を定式化する。
本研究では,時間的畳み込みネットワークオートエンコーダ,長期記憶オートエンコーダ,ビデオベース学生のエンゲージメント検出機能を利用したフィードフォワードオートエンコーダなど,さまざまなオートエンコーダを設計する。
daiseeとemotiwの2つの学生参加データセットを用いた実験の結果,提案手法は,映像を係合クラスと係合クラスに分類するバイナリ分類器に比べ,異常として検出する手法が優れていることが示された(受信者の行動特性曲線の曲線下の領域では平均9%,精度-リコール曲線の曲線下の領域では22%改善されている)。
関連論文リスト
- Prior Knowledge Guided Network for Video Anomaly Detection [1.389970629097429]
ビデオ異常検出(VAD)は、ビデオ内の異常事象を検出する。
VADタスクのための事前知識誘導ネットワーク(PKG-Net)を提案する。
論文 参考訳(メタデータ) (2023-09-04T15:57:07Z) - Self-Regulated Learning for Egocentric Video Activity Anticipation [147.9783215348252]
自己制御学習(SRL)は、中間表現を連続的に制御し、現在のタイムスタンプのフレームにおける新しい情報を強調する表現を作り出すことを目的としている。
SRLは2つのエゴセントリックなビデオデータセットと2つの第三者のビデオデータセットにおいて、既存の最先端技術よりも大幅に優れています。
論文 参考訳(メタデータ) (2021-11-23T03:29:18Z) - Joint Inductive and Transductive Learning for Video Object Segmentation [107.32760625159301]
半教師付きオブジェクトセグメンテーションは、第1フレームのマスクだけを与えられたビデオシーケンスで対象オブジェクトをセグメンテーションするタスクである。
過去の最も優れた手法は、マッチングベースの帰納的推論やオンライン帰納的学習を採用していた。
本稿では,トランスダクティブ学習とインダクティブ学習を統合したフレームワークに統合し,それら間の補完を利用して,高精度かつ堅牢なビデオオブジェクトセグメンテーションを提案する。
論文 参考訳(メタデータ) (2021-08-08T16:25:48Z) - Affect-driven Engagement Measurement from Videos [0.8545305424564517]
仮想学習プログラムにおいて,ビデオによるエンゲージメント測定のための新しい手法を提案する。
ディープラーニングベースの時間モデルと従来の機械学習ベースの非時間モデルをトレーニングし、検証する。
実験の結果,最先端のエンゲージメントレベル分類精度は63.3%,非エンゲージメントビデオの正確な分類が得られた。
論文 参考訳(メタデータ) (2021-06-21T06:49:17Z) - ASCNet: Self-supervised Video Representation Learning with
Appearance-Speed Consistency [62.38914747727636]
本研究では,1)明示的な監督のためのラベルの欠如,2)構造化されていない,ノイズの多い視覚情報による自己指導型映像表現学習について検討する。
既存の方法は、主にビデオクリップをインスタンスとしてコントラスト損失を使用し、互いにインスタンスを識別することで視覚的表現を学ぶ。
本稿では,ロバストな映像表現を学ぶ上で,正のサンプル間の一貫性が鍵となることを観察する。
論文 参考訳(メタデータ) (2021-06-04T08:44:50Z) - CoCon: Cooperative-Contrastive Learning [52.342936645996765]
自己教師付き視覚表現学習は効率的な映像分析の鍵である。
最近の画像表現の学習の成功は、コントラスト学習がこの課題に取り組むための有望なフレームワークであることを示唆している。
コントラスト学習の協調的バリエーションを導入し、ビュー間の相補的な情報を活用する。
論文 参考訳(メタデータ) (2021-04-30T05:46:02Z) - Incremental Learning from Low-labelled Stream Data in Open-Set Video
Face Recognition [0.0]
本稿では,深層機能エンコーダとSVMのオープンセット動的アンサンブルを組み合わせた新しいインクリメンタル学習手法を提案する。
本手法は,教師なしの操作データを用いて認識性を向上させる。
結果は、非適応状態の方法に対する最大15%のF1スコア増加の利点を示しています。
論文 参考訳(メタデータ) (2020-12-17T13:28:13Z) - Memory-augmented Dense Predictive Coding for Video Representation
Learning [103.69904379356413]
本稿では,新しいアーキテクチャと学習フレームワーク Memory-augmented Predictive Coding (MemDPC) を提案する。
本稿では、RGBフレームからの視覚のみの自己教師付きビデオ表現学習や、教師なし光学フローからの学習、あるいはその両方について検討する。
いずれの場合も、トレーニングデータの桁数が桁違いに少ない他のアプローチに対して、最先端または同等のパフォーマンスを示す。
論文 参考訳(メタデータ) (2020-08-03T17:57:01Z) - Self-trained Deep Ordinal Regression for End-to-End Video Anomaly
Detection [114.9714355807607]
ビデオ異常検出に自己学習深層順序回帰を適用することで,既存の手法の2つの重要な限界を克服できることを示す。
我々は,手動で正規/異常データをラベル付けすることなく,共同表現学習と異常スコアリングを可能にする,エンドツーエンドのトレーニング可能なビデオ異常検出手法を考案した。
論文 参考訳(メタデータ) (2020-03-15T08:44:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。