論文の概要: Multimodality in Online Education: A Comparative Study
- arxiv url: http://arxiv.org/abs/2312.05797v2
- Date: Sun, 17 Dec 2023 06:57:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 19:24:06.913857
- Title: Multimodality in Online Education: A Comparative Study
- Title(参考訳): オンライン教育におけるマルチモーダリティ : 比較研究
- Authors: Praneeta Immadisetty, Pooja Rajesh, Akshita Gupta, Anala M R, Soumya
A, K. N. Subramanya
- Abstract要約: 現在のシステムは、教育分野に焦点をあてていない単一のキューのみを考慮に入れている。
本稿では,オンライン教室における認識とその展開に影響を与えるマルチモーダルアプローチの必要性を強調した。
各キューで利用可能なさまざまな機械学習モデルを比較し、最も適切なアプローチを提供する。
- 参考スコア(独自算出の注目度): 2.0472158451829827
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The commencement of the decade brought along with it a grave pandemic and in
response the movement of education forums predominantly into the online world.
With a surge in the usage of online video conferencing platforms and tools to
better gauge student understanding, there needs to be a mechanism to assess
whether instructors can grasp the extent to which students understand the
subject and their response to the educational stimuli. The current systems
consider only a single cue with a lack of focus in the educational domain.
Thus, there is a necessity for the measurement of an all-encompassing holistic
overview of the students' reaction to the subject matter. This paper highlights
the need for a multimodal approach to affect recognition and its deployment in
the online classroom while considering four cues, posture and gesture, facial,
eye tracking and verbal recognition. It compares the various machine learning
models available for each cue and provides the most suitable approach given the
available dataset and parameters of classroom footage. A multimodal approach
derived from weighted majority voting is proposed by combining the most fitting
models from this analysis of individual cues based on accuracy, ease of
procuring data corpus, sensitivity and any major drawbacks.
- Abstract(参考訳): 十年が経つと、それは重大なパンデミックとなり、教育フォーラムがオンラインの世界へと大きく移行した。
生徒の理解を深めるためのオンラインビデオ会議プラットフォームやツールの利用が急増しているため、教官が生徒が対象と教育的刺激に対する反応を理解する程度を把握できるかどうかを評価するためのメカニズムが必要である。
現在のシステムは、教育分野に焦点をあてていない単一のキューのみを考慮する。
したがって、対象物に対する学生の反応の全体的概観を総合的に測定する必要性がある。
本稿では, 姿勢・ジェスチャー, 顔, 視線追跡, 言語認識の4つの手がかりを考慮しつつ, 認識とオンライン教室への展開に影響を与えるマルチモーダルアプローチの必要性を強調した。
各キューで利用可能なさまざまな機械学習モデルを比較し、利用可能なデータセットと教室映像のパラメータを考えると、最も適切なアプローチを提供する。
重み付けされた多数決投票から導かれるマルチモーダル手法は, 精度, 調達容易性, 感度, 主要な欠点に基づいて, 個々の手がかりから最も適合したモデルを組み合わせることによって提案される。
関連論文リスト
- Machine Unlearning: A Comprehensive Survey [14.235752586133158]
この調査は、幅広い機械学習を体系的に分類することを目的としている。
現在のアンラーニング手法は,集中型アンラーニング,分散および不規則なデータアンラーニング,アンラーニング検証,およびアンラーニングにおけるプライバシとセキュリティの問題の4つのシナリオに分類する。
論文 参考訳(メタデータ) (2024-05-13T00:58:34Z) - Revisiting Self-supervised Learning of Speech Representation from a
Mutual Information Perspective [68.20531518525273]
我々は、情報理論の観点から、既存の自己教師型音声の手法を詳しく検討する。
我々は線形プローブを用いて、対象情報と学習された表現の間の相互情報を推定する。
我々は、ラベルを使わずに、データの異なる部分間の相互情報を見積もる自己教師型の表現を評価する可能性を探る。
論文 参考訳(メタデータ) (2024-01-16T21:13:22Z) - Empowering Private Tutoring by Chaining Large Language Models [87.76985829144834]
本研究は,最先端の大規模言語モデル(LLM)を活用した,本格的な知的チューリングシステムの開発を探求する。
このシステムは、相互に接続された3つのコアプロセス(相互作用、反射、反応)に分けられる。
各プロセスは LLM ベースのツールと動的に更新されたメモリモジュールによって実装される。
論文 参考訳(メタデータ) (2023-09-15T02:42:03Z) - Vision+X: A Survey on Multimodal Learning in the Light of Data [64.03266872103835]
様々なソースからのデータを組み込んだマルチモーダル機械学習が,ますます普及している研究分野となっている。
我々は、視覚、音声、テキスト、動きなど、各データフォーマットの共通点と特異点を分析する。
本稿では,表現学習と下流アプリケーションレベルの両方から,マルチモーダル学習に関する既存の文献を考察する。
論文 参考訳(メタデータ) (2022-10-05T13:14:57Z) - Multimodal Lecture Presentations Dataset: Understanding Multimodality in
Educational Slides [57.86931911522967]
学習内容のマルチモーダル理解における機械学習モデルの能力を検証する。
このデータセットには,180時間以上のビデオと9000時間以上のスライドが,各科目から10人の講師が参加している。
マルチモーダル・トランスフォーマーであるPolyViLTを導入する。
論文 参考訳(メタデータ) (2022-08-17T05:30:18Z) - Real-time Attention Span Tracking in Online Education [0.0]
本稿では,オンライン授業中の学生のリアルタイムの注意レベルを監視するために,カメラフィードとマイクロホン入力を利用するメカニズムを提案する。
我々は,5つの異なる非言語的特徴を用いて,コンピュータによるタスク中の学生の注意スコアを計算し,学生と組織の両方に対してリアルタイムのフィードバックを生成するシステムを提案する。
論文 参考訳(メタデータ) (2021-11-29T17:05:59Z) - Improving Teacher-Student Interactions in Online Educational Forums
using a Markov Chain based Stackelberg Game Model [5.004814662623874]
オンラインフォーラム(OEF)におけるインストラクターと学生のインタラクションをキャプチャするための連続時間マルコフ連鎖(CTMC)に基づく分析モデルを提案する。
学生はインストラクターの関与が増大する中で,非単調性の程度が多様であることが観察された。
本モデルは,特定のパラメータ構成下で経験的に観察された超ポスター現象を示し,OEFの学生参加を最大化するためのインストラクターに最適なプランを推奨する。
論文 参考訳(メタデータ) (2021-11-25T09:48:20Z) - Multimodal Engagement Analysis from Facial Videos in the Classroom [5.202558003704116]
本研究の目的は,授業の質や教員養成の文脈において,授業ビデオの手動データ分析を容易にするための技術手段を提供することである。
論文 参考訳(メタデータ) (2021-01-11T22:15:04Z) - Personalized Multimodal Feedback Generation in Education [50.95346877192268]
学校課題の自動評価は、教育分野におけるAIの重要な応用である。
モーダルゲート機構とパーソナライズされたバイアス機構を備えたPMFGN(Personalized Multimodal Feedback Generation Network)を提案する。
我々のモデルは、より正確で多様なフィードバックを生成することによって、いくつかのベースラインを著しく上回ります。
論文 参考訳(メタデータ) (2020-10-31T05:26:49Z) - Embedded Deep Bilinear Interactive Information and Selective Fusion for
Multi-view Learning [70.67092105994598]
本稿では,上記の2つの側面に着目した,新しい多視点学習フレームワークを提案する。
特に、さまざまな深層ニューラルネットワークをトレーニングして、様々なビュー内表現を学習する。
6つの公開データセットの実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-07-13T01:13:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。