論文の概要: edBB-Demo: Biometrics and Behavior Analysis for Online Educational
Platforms
- arxiv url: http://arxiv.org/abs/2211.09210v1
- Date: Wed, 16 Nov 2022 20:53:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 17:03:02.900983
- Title: edBB-Demo: Biometrics and Behavior Analysis for Online Educational
Platforms
- Title(参考訳): edBB-Demo:オンライン教育プラットフォームにおけるバイオメトリックスと行動分析
- Authors: Roberto Daza, Aythami Morales, Ruben Tolosana, Luis F. Gomez, Julian
Fierrez, Javier Ortega-Garcia
- Abstract要約: EDBBプラットフォームは、デジタルプラットフォームにおけるユーザ認識と行動理解に関連する課題を研究することを目的としている。
学生セッション中にセンサから取得した情報は、マルチモーダル学習フレームワークでモデル化される。
- 参考スコア(独自算出の注目度): 17.38605546335716
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present edBB-Demo, a demonstrator of an AI-powered research platform for
student monitoring in remote education. The edBB platform aims to study the
challenges associated to user recognition and behavior understanding in digital
platforms. This platform has been developed for data collection, acquiring
signals from a variety of sensors including keyboard, mouse, webcam,
microphone, smartwatch, and an Electroencephalography band. The information
captured from the sensors during the student sessions is modelled in a
multimodal learning framework. The demonstrator includes: i) Biometric user
authentication in an unsupervised environment; ii) Human action recognition
based on remote video analysis; iii) Heart rate estimation from webcam video;
and iv) Attention level estimation from facial expression analysis.
- Abstract(参考訳): 本稿では,遠隔教育における学生監視のためのAIを活用した研究プラットフォームの実証者であるedBB-Demoを紹介する。
EDBBプラットフォームは、デジタルプラットフォームにおけるユーザ認識と行動理解に関連する課題を研究することを目的としている。
このプラットフォームはデータ収集のために開発され、キーボード、マウス、ウェブカメラ、マイク、スマートウォッチ、脳波バンドなど様々なセンサーからの信号を取得する。
学生セッション中にセンサから取得した情報は、マルチモーダル学習フレームワークでモデル化される。
デモ参加者には
一 監督されていない環境での生体認証
二 遠隔映像解析に基づく人間の行動認識
三 ウェブカムビデオからの心拍数の推定及び
iv)表情分析による注意レベルの推定
関連論文リスト
- Robust Audiovisual Speech Recognition Models with Mixture-of-Experts [67.75334989582709]
EVAを導入し、オーディオVisual ASRのミックス・オブ・エクササイズを利用して、Wildのビデオに対してロバストな音声認識を行う。
まず、視覚情報を視覚トークンシーケンスにエンコードし、それらを軽量な投影により音声空間にマッピングする。
実験により,本モデルが3つのベンチマークで最先端の結果が得られることが示された。
論文 参考訳(メタデータ) (2024-09-19T00:08:28Z) - Revisiting Self-supervised Learning of Speech Representation from a
Mutual Information Perspective [68.20531518525273]
我々は、情報理論の観点から、既存の自己教師型音声の手法を詳しく検討する。
我々は線形プローブを用いて、対象情報と学習された表現の間の相互情報を推定する。
我々は、ラベルを使わずに、データの異なる部分間の相互情報を見積もる自己教師型の表現を評価する可能性を探る。
論文 参考訳(メタデータ) (2024-01-16T21:13:22Z) - Any-point Trajectory Modeling for Policy Learning [64.23861308947852]
我々は、ビデオフレーム内の任意の点の将来の軌跡を予測するために、ATM(Any-point Trajectory Modeling)を導入する。
ATMは、強力なビデオ事前トレーニングベースラインを平均80%上回っている。
本研究では,人間の動画やビデオからの操作スキルを,異なるロボット形態から効果的に伝達する学習方法を示す。
論文 参考訳(メタデータ) (2023-12-28T23:34:43Z) - Data Center Audio/Video Intelligence on Device (DAVID) -- An Edge-AI
Platform for Smart-Toys [2.740631793745274]
DAVID Smart-Toyプラットフォームは、Edge AIプラットフォームの最初の設計のひとつだ。
ニューラルネットワークモデルによる高度な低消費電力データ処理を、関連する画像やオーディオセンサーと併用する。
デバイス内テキスト音声生成のオンボード機能も備えている。
論文 参考訳(メタデータ) (2023-11-18T10:38:35Z) - M2LADS: A System for Generating MultiModal Learning Analytics Dashboards
in Open Education [15.30924350440346]
M2LADSは、MOOCで記録されたマルチモーダルデータの、Webベースのダッシュボードの形での統合と可視化をサポートする。
EDBBプラットフォームに基づいて収集されたマルチモーダルデータは、生体信号と行動信号を含む。
M2LADSはMOOCとのインタラクションにおいて学習者の全体的経験を捉える機会を提供する。
論文 参考訳(メタデータ) (2023-05-21T20:22:38Z) - MATT: Multimodal Attention Level Estimation for e-learning Platforms [16.407885871027887]
本研究は,マルチモーダル顔分析に基づくリモートアテンションレベル推定のための新しいマルチモーダルシステムを提案する。
私たちのマルチモーダルアプローチでは、認知負荷のモデル化に関連する行動や生理的プロセスから得られる様々なパラメータと信号を使用します。
mEBALデータベースは、eラーニング環境で得られたアテンションレベル推定のための公共マルチモーダルデータベースである実験フレームワークで使用される。
論文 参考訳(メタデータ) (2023-01-22T18:18:20Z) - MDEAW: A Multimodal Dataset for Emotion Analysis through EDA and PPG
signals from wireless wearable low-cost off-the-shelf Devices [0.0]
本稿では,バルセロナのサバデルにあるユーレカット・アカデミーの教員が授業中に記録したEDA(Electronrmal Activity)と光麻痺(Photoplethys, PPG)信号からなるマルチモーダルデータベースMDEAWについて述べる。
信号はポータブル、ウェアラブル、ワイヤレス、低コスト、オフザシェルフの機器を使用してキャプチャされ、毎日のアプリケーションで感情的コンピューティング手法を使用できる可能性がある。
論文 参考訳(メタデータ) (2022-07-14T07:04:29Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Attribute Inference Attack of Speech Emotion Recognition in Federated
Learning Settings [56.93025161787725]
Federated Learning(FL)は、クライアントをコーディネートして、ローカルデータを共有せずにモデルを協調的にトレーニングする分散機械学習パラダイムである。
本稿では,共有勾配やモデルパラメータからクライアントの機密属性情報を推測する属性推論攻撃フレームワークを提案する。
FLを用いて学習したSERシステムに対して,属性推論攻撃が達成可能であることを示す。
論文 参考訳(メタデータ) (2021-12-26T16:50:42Z) - Heart Rate Estimation from Face Videos for Student Assessment:
Experiments on edBB [24.666654058140836]
本研究は、リモート光胸腺撮影技術を用いて心拍数推定を行うためのRGBおよび近赤外ビデオシーケンスに焦点を当てた。
実験には、25人の異なる学生による行動的および生理的データが含まれており、eラーニングに関連するタスクの収集が完了している。
提案した顔の心拍数推定手法は,スマートウォッチが提供する心拍数と比較し,将来のeラーニングアプリケーションへの展開について非常に有望な結果を得た。
論文 参考訳(メタデータ) (2020-06-01T10:04:36Z) - Multi-Modal Video Forensic Platform for Investigating Post-Terrorist
Attack Scenarios [55.82693757287532]
大規模ビデオ分析プラットフォーム(VAP)は、容疑者を特定し証拠を確保するために法執行機関(LEA)を支援する。
本稿では,視覚・音声分析モジュールを統合し,監視カメラからの情報と目撃者からの映像アップロードを融合するビデオ分析プラットフォームを提案する。
論文 参考訳(メタデータ) (2020-04-02T14:29:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。