論文の概要: Multimodality in Online Education: A Comparative Study
- arxiv url: http://arxiv.org/abs/2312.05797v2
- Date: Sun, 17 Dec 2023 06:57:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 19:24:06.913857
- Title: Multimodality in Online Education: A Comparative Study
- Title(参考訳): オンライン教育におけるマルチモーダリティ : 比較研究
- Authors: Praneeta Immadisetty, Pooja Rajesh, Akshita Gupta, Anala M R, Soumya
A, K. N. Subramanya
- Abstract要約: 現在のシステムは、教育分野に焦点をあてていない単一のキューのみを考慮に入れている。
本稿では,オンライン教室における認識とその展開に影響を与えるマルチモーダルアプローチの必要性を強調した。
各キューで利用可能なさまざまな機械学習モデルを比較し、最も適切なアプローチを提供する。
- 参考スコア(独自算出の注目度): 2.0472158451829827
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The commencement of the decade brought along with it a grave pandemic and in
response the movement of education forums predominantly into the online world.
With a surge in the usage of online video conferencing platforms and tools to
better gauge student understanding, there needs to be a mechanism to assess
whether instructors can grasp the extent to which students understand the
subject and their response to the educational stimuli. The current systems
consider only a single cue with a lack of focus in the educational domain.
Thus, there is a necessity for the measurement of an all-encompassing holistic
overview of the students' reaction to the subject matter. This paper highlights
the need for a multimodal approach to affect recognition and its deployment in
the online classroom while considering four cues, posture and gesture, facial,
eye tracking and verbal recognition. It compares the various machine learning
models available for each cue and provides the most suitable approach given the
available dataset and parameters of classroom footage. A multimodal approach
derived from weighted majority voting is proposed by combining the most fitting
models from this analysis of individual cues based on accuracy, ease of
procuring data corpus, sensitivity and any major drawbacks.
- Abstract(参考訳): 十年が経つと、それは重大なパンデミックとなり、教育フォーラムがオンラインの世界へと大きく移行した。
生徒の理解を深めるためのオンラインビデオ会議プラットフォームやツールの利用が急増しているため、教官が生徒が対象と教育的刺激に対する反応を理解する程度を把握できるかどうかを評価するためのメカニズムが必要である。
現在のシステムは、教育分野に焦点をあてていない単一のキューのみを考慮する。
したがって、対象物に対する学生の反応の全体的概観を総合的に測定する必要性がある。
本稿では, 姿勢・ジェスチャー, 顔, 視線追跡, 言語認識の4つの手がかりを考慮しつつ, 認識とオンライン教室への展開に影響を与えるマルチモーダルアプローチの必要性を強調した。
各キューで利用可能なさまざまな機械学習モデルを比較し、利用可能なデータセットと教室映像のパラメータを考えると、最も適切なアプローチを提供する。
重み付けされた多数決投票から導かれるマルチモーダル手法は, 精度, 調達容易性, 感度, 主要な欠点に基づいて, 個々の手がかりから最も適合したモデルを組み合わせることによって提案される。
関連論文リスト
- Revisiting Self-supervised Learning of Speech Representation from a
Mutual Information Perspective [68.20531518525273]
我々は、情報理論の観点から、既存の自己教師型音声の手法を詳しく検討する。
我々は線形プローブを用いて、対象情報と学習された表現の間の相互情報を推定する。
我々は、ラベルを使わずに、データの異なる部分間の相互情報を見積もる自己教師型の表現を評価する可能性を探る。
論文 参考訳(メタデータ) (2024-01-16T21:13:22Z) - Vision+X: A Survey on Multimodal Learning in the Light of Data [71.07658443380264]
様々なモダリティのデータを組み込んだマルチモーダル機械学習は、ますます人気のある研究分野になりつつある。
我々は、視覚、音声、テキストなど、各データフォーマットの共通点と特異点を分析し、Vision+Xの組み合わせによって分類された技術開発を提示する。
論文 参考訳(メタデータ) (2022-10-05T13:14:57Z) - Multimodal Lecture Presentations Dataset: Understanding Multimodality in
Educational Slides [57.86931911522967]
学習内容のマルチモーダル理解における機械学習モデルの能力を検証する。
このデータセットには,180時間以上のビデオと9000時間以上のスライドが,各科目から10人の講師が参加している。
マルチモーダル・トランスフォーマーであるPolyViLTを導入する。
論文 参考訳(メタデータ) (2022-08-17T05:30:18Z) - Self-Supervised Speech Representation Learning: A Review [105.1545308184483]
自己教師付き表現学習法は、幅広いタスクやドメインに利益をもたらす単一の普遍的モデルを約束する。
音声表現学習は、生成的、コントラスト的、予測的という3つの主要なカテゴリで同様の進歩を経験している。
本稿では,自己指導型音声表現学習のアプローチと,他の研究領域との関係について述べる。
論文 参考訳(メタデータ) (2022-05-21T16:52:57Z) - DMCNet: Diversified Model Combination Network for Understanding
Engagement from Video Screengrabs [0.4397520291340695]
エンゲージメントは知的教育インタフェースの開発において重要な役割を果たしている。
非深さ学習モデルは、Histogram of Oriented Gradient(HOG)、SVM(Support Vector Machine)、SIFT(Scale Invariant Feature Transform)、SURF(Speeded Up Robust Features)といった一般的なアルゴリズムの組み合わせに基づいている。
ディープラーニングには、Densely Connected Convolutional Networks (DenseNet-121)、Residual Network (ResNet-18)、MobileNetV1がある。
論文 参考訳(メタデータ) (2022-04-13T15:24:38Z) - Real-time Attention Span Tracking in Online Education [0.0]
本稿では,オンライン授業中の学生のリアルタイムの注意レベルを監視するために,カメラフィードとマイクロホン入力を利用するメカニズムを提案する。
我々は,5つの異なる非言語的特徴を用いて,コンピュータによるタスク中の学生の注意スコアを計算し,学生と組織の両方に対してリアルタイムのフィードバックを生成するシステムを提案する。
論文 参考訳(メタデータ) (2021-11-29T17:05:59Z) - Improving Teacher-Student Interactions in Online Educational Forums
using a Markov Chain based Stackelberg Game Model [5.004814662623874]
オンラインフォーラム(OEF)におけるインストラクターと学生のインタラクションをキャプチャするための連続時間マルコフ連鎖(CTMC)に基づく分析モデルを提案する。
学生はインストラクターの関与が増大する中で,非単調性の程度が多様であることが観察された。
本モデルは,特定のパラメータ構成下で経験的に観察された超ポスター現象を示し,OEFの学生参加を最大化するためのインストラクターに最適なプランを推奨する。
論文 参考訳(メタデータ) (2021-11-25T09:48:20Z) - Multimodal Engagement Analysis from Facial Videos in the Classroom [5.202558003704116]
本研究の目的は,授業の質や教員養成の文脈において,授業ビデオの手動データ分析を容易にするための技術手段を提供することである。
論文 参考訳(メタデータ) (2021-01-11T22:15:04Z) - Personalized Multimodal Feedback Generation in Education [50.95346877192268]
学校課題の自動評価は、教育分野におけるAIの重要な応用である。
モーダルゲート機構とパーソナライズされたバイアス機構を備えたPMFGN(Personalized Multimodal Feedback Generation Network)を提案する。
我々のモデルは、より正確で多様なフィードバックを生成することによって、いくつかのベースラインを著しく上回ります。
論文 参考訳(メタデータ) (2020-10-31T05:26:49Z) - Embedded Deep Bilinear Interactive Information and Selective Fusion for
Multi-view Learning [70.67092105994598]
本稿では,上記の2つの側面に着目した,新しい多視点学習フレームワークを提案する。
特に、さまざまな深層ニューラルネットワークをトレーニングして、様々なビュー内表現を学習する。
6つの公開データセットの実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-07-13T01:13:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。