論文の概要: Analyzing Participants' Engagement during Online Meetings Using Unsupervised Remote Photoplethysmography with Behavioral Features
- arxiv url: http://arxiv.org/abs/2404.04394v1
- Date: Fri, 5 Apr 2024 20:39:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-09 21:28:03.996219
- Title: Analyzing Participants' Engagement during Online Meetings Using Unsupervised Remote Photoplethysmography with Behavioral Features
- Title(参考訳): オンライン会議における参加者のエンゲージメントの分析 : 非教師なしリモート光胸腺撮影と行動特性
- Authors: Alexander Vedernikov, Zhaodong Sun, Virpi-Liisa Kykyri, Mikko Pohjola, Miriam Nokia, Xiaobai Li,
- Abstract要約: エンゲージメント測定は、医療、教育、広告、サービスに応用される。
生理的特徴と行動的特徴の使用は可能であるが、非現実的な伝統的な生理的測定は接触センサーの必要性から生じる。
心拍変動(HRV)における接触センサの代替手段としての非教師なし遠隔光胸腺造影の有用性を実証する。
HRVの特徴のみを使用すると、94%の精度が達成され、接触センサーや地上の真理信号が不要になる。
- 参考スコア(独自算出の注目度): 50.82725748981231
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Engagement measurement finds application in healthcare, education, advertisement, and services. The use of physiological and behavioral features is viable, but the impracticality of traditional physiological measurement arises due to the need for contact sensors. We demonstrate the feasibility of unsupervised remote photoplethysmography (rPPG) as an alternative for contact sensors in deriving heart rate variability (HRV) features, then fusing these with behavioral features to measure engagement in online group meetings. Firstly, a unique Engagement Dataset of online interactions among social workers is collected with granular engagement labels, offering insight into virtual meeting dynamics. Secondly, a pre-trained rPPG model is customized to reconstruct accurate rPPG signals from video meetings in an unsupervised manner, enabling the calculation of HRV features. Thirdly, the feasibility of estimating engagement from HRV features using short observation windows, with a notable enhancement when using longer observation windows of two to four minutes, is demonstrated. Fourthly, the effectiveness of behavioral cues is evaluated and fused with physiological data, which further enhances engagement estimation performance. An accuracy of 94% is achieved when only HRV features are used, eliminating the need for contact sensors or ground truth signals. The incorporation of behavioral cues raises the accuracy to 96%. Facial video analysis offers precise engagement measurement, beneficial for future applications.
- Abstract(参考訳): エンゲージメント測定は、医療、教育、広告、サービスに応用される。
生理的特徴と行動的特徴の使用は可能であるが、従来の生理的測定の不実用性は接触センサーの必要性によって生じる。
心拍変動(HRV)特徴の導出における接触センサの代替として,非教師なし遠隔光胸腺造影(rPPG)の有用性を実証し,これらを行動特徴と融合させてオンライングループミーティングにおけるエンゲージメントを測定した。
第一に、ソーシャルワーカー間のオンラインインタラクションのユニークなエンゲージメントデータセットは、仮想ミーティングのダイナミクスに関する洞察を提供する、きめ細かいエンゲージメントラベルで収集される。
第2に、ビデオ会議からの正確なrPPG信号を教師なしで再構成するために、事前学習したrPPGモデルをカスタマイズし、HRV特徴量の計算を可能にする。
第3に,2~4分間の長い観測窓を用いた場合の顕著な拡張とともに,短い観測窓を用いたHRV特徴量からのエンゲージメント推定の可能性を示す。
第4に、行動手がかりの有効性を評価し、生理的データと融合することにより、エンゲージメント推定性能をさらに向上させる。
HRVの特徴のみを使用すると、94%の精度が達成され、接触センサーや地上の真理信号が不要になる。
行動手がかりの組み入れにより、精度は96%に向上する。
顔画像解析は正確なエンゲージメントの測定を提供し、将来の応用に有用である。
関連論文リスト
- SympCam: Remote Optical Measurement of Sympathetic Arousal [41.97525156940624]
遠隔同情的覚醒予測の課題に適した新しい畳み込みアーキテクチャを提案する。
本手法により予測された交感神経刺激は, バランスの取れた90%の精度で身体的ストレスを検出することができることを示す。
我々は,遠隔同情的覚醒予測のタスクのために,明示的に設計されたデータセットを寄贈する。
論文 参考訳(メタデータ) (2024-10-27T18:46:55Z) - Integrative Deep Learning Framework for Parkinson's Disease Early Detection using Gait Cycle Data Measured by Wearable Sensors: A CNN-GRU-GNN Approach [0.3222802562733786]
対象のバイナリ分類に適した,先駆的な深層学習アーキテクチャを提案する。
我々のモデルは、1D畳み込みニューラルネットワーク(CNN)、GRU(Gated Recurrent Units)、GNN(Graph Neural Network)のパワーを利用する。
提案モデルでは, 99.51%, 99.57%, 99.71%, 99.64%のスコアが得られた。
論文 参考訳(メタデータ) (2024-04-09T15:19:13Z) - ShaRPy: Shape Reconstruction and Hand Pose Estimation from RGB-D with
Uncertainty [6.559796851992517]
本稿では,最初のRGB-D形状再構成システムであるShaRPyを提案する。
ShaRPyはパーソナライズされた手の形を近似し、デジタルツインのより現実的で直感的な理解を促進する。
キーポイント検出ベンチマークを用いてShaRPyを評価し,筋骨格疾患の能動モニタリングのための手機能評価の質的結果を示した。
論文 参考訳(メタデータ) (2023-03-17T15:12:25Z) - KIDS: kinematics-based (in)activity detection and segmentation in a
sleep case study [5.707737640557724]
睡眠行動とベッド内の運動は、人々の神経生理学的健康に関する豊富な情報を含んでいる。
本稿では,臨床的に有意な関節キネマティクスに基づく客観的(in)アクティビティ検出とセグメンテーションのためのオンラインベイズ確率的枠組みを提案する。
論文 参考訳(メタデータ) (2023-01-04T16:24:01Z) - Measuring hand use in the home after cervical spinal cord injury using
egocentric video [2.1064122195521926]
エゴセントリックビデオは、コミュニティで四肢麻痺を患っている人の手機能モニタリングの潜在的な解決策として登場した。
四肢麻痺児の在宅における手指使用量を測定するウェアラブル・ビジョン・ベース・システムの開発と評価を行った。
論文 参考訳(メタデータ) (2022-03-31T12:43:23Z) - Real-time landmark detection for precise endoscopic submucosal
dissection via shape-aware relation network [51.44506007844284]
内視鏡下粘膜下郭清術における高精度かつリアルタイムなランドマーク検出のための形状認識型関係ネットワークを提案する。
まず,ランドマーク間の空間的関係に関する先行知識を直感的に表現する関係キーポイント・ヒートマップを自動生成するアルゴリズムを考案する。
次に、事前知識を学習プロセスに段階的に組み込むために、2つの補完的な正規化手法を開発する。
論文 参考訳(メタデータ) (2021-11-08T07:57:30Z) - Designing A Clinically Applicable Deep Recurrent Model to Identify
Neuropsychiatric Symptoms in People Living with Dementia Using In-Home
Monitoring Data [52.40058724040671]
鎮静は認知症において高い有病率を有する神経精神医学症状の1つである。
扇動エピソードの検出は、認知症に生きる人々(PLWD)に早期かつタイムリーな介入を提供するのに役立つ。
本研究は,家庭内モニタリングデータを用いてPLWDの動揺リスクを分析するための教師付き学習モデルを提案する。
論文 参考訳(メタデータ) (2021-10-19T11:45:01Z) - Video-based Remote Physiological Measurement via Cross-verified Feature
Disentangling [121.50704279659253]
非生理的表現と生理的特徴を混同するための横断的特徴分離戦略を提案する。
次に, 蒸留された生理特性を用いて, 頑健なマルチタスク生理測定を行った。
歪んだ特徴は、最終的に平均HR値やr信号のような複数の生理的信号の合同予測に使用される。
論文 参考訳(メタデータ) (2020-07-16T09:39:17Z) - AutoHR: A Strong End-to-end Baseline for Remote Heart Rate Measurement
with Neural Searching [76.4844593082362]
既存のエンド・ツー・エンドのネットワークが難易度が低い理由を考察し,アーキテクチャ・サーチ(NAS)を用いたリモートHR計測のための強力なベースラインを確立する。
総合的な実験は、時間内テストとクロスデータセットテストの両方で3つのベンチマークデータセットで実施される。
論文 参考訳(メタデータ) (2020-04-26T05:43:21Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。