論文の概要: Facial Movement Dynamics Reveal Workload During Complex Multitasking
- arxiv url: http://arxiv.org/abs/2603.17767v1
- Date: Wed, 18 Mar 2026 14:28:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.749192
- Title: Facial Movement Dynamics Reveal Workload During Complex Multitasking
- Title(参考訳): 複合型マルチタスクにおける顔面運動動態の検討
- Authors: Carter Sale, Melissa N. Stolar, Gaurav Patil, Michael J. Gostelow, Julia Wallier, Margaret C. Macpherson, Jan-Louis Kruger, Mark Dras, Simon G. Hosking, Rachel W. Kallen, Michael J. Richardson,
- Abstract要約: リアルタイム認知作業負荷モニタリングは、安全クリティカルな環境において不可欠である。
われわれは、標準的なウェブカメラの顔の動きのダイナミクスが低コストな代替手段になるかどうかを検証した。
- 参考スコア(独自算出の注目度): 2.613650913343188
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-time cognitive workload monitoring is crucial in safety-critical environments, yet established measures are intrusive, expensive, or lack temporal resolution. We tested whether facial movement dynamics from a standard webcam could provide a low-cost alternative. Seventy-two participants completed a multitasking simulation (OpenMATB) under varied load while facial keypoints were tracked via OpenPose. Linear kinematics (velocity, acceleration, displacement) and recurrence quantification features were extracted. Increasing load altered dynamics across timescales: movement magnitudes rose, temporal organisation fragmented then reorganised into complex patterns, and eye-head coordination weakened. Random forest classifiers trained on pose kinematics outperformed task performance metrics (85% vs. 55% accuracy) but generalised poorly across participants (43% vs. 33% chance). Participant-specific models reached 50% accuracy with minimal calibration (2 minutes per condition), improving continuously to 73% without plateau. Facial movement dynamics sensitively track workload with brief calibration, enabling adaptive interfaces using commodity cameras, though individual differences limit cross-participant generalisation.
- Abstract(参考訳): リアルタイム認知作業負荷監視は、安全クリティカルな環境において重要であるが、確立された手段は侵入的、高価、時間的解決の欠如である。
われわれは、標準的なウェブカメラの顔の動きのダイナミクスが低コストな代替手段になるかどうかを検証した。
72%の参加者が様々な負荷下でマルチタスクシミュレーション(OpenMATB)を完了し、顔のキーポイントがOpenPose経由で追跡された。
リニアキネマティクス(速度,加速度,変位)と再発量化の特徴を抽出した。
時間スケールでの負荷の増加は、運動の規模が増加し、一時的組織が断片化され、複雑なパターンに再編成され、視線調整が弱まった。
ポーズキネマティクスで訓練されたランダム森林分類器は、タスクパフォーマンス指標(85%対55%の精度)より優れていたが、参加者全体(43%対33%の確率)は不十分であった。
参加者固有のモデルは、最小限のキャリブレーション(2分)で50%の精度に達し、プラトー無しで継続的に73%まで改善した。
顔の動きのダイナミクスは、作業負荷を短時間のキャリブレーションで微妙に追跡し、コモディティカメラを用いた適応インタフェースを実現するが、個人差は参加者間の一般化を制限する。
関連論文リスト
- Optimization-Guided Diffusion for Interactive Scene Generation [52.23368750264419]
本稿では,拡散型サンプリングにおける構造的一貫性と相互作用認識を実現するための,最適化誘導型トレーニングフリーフレームワークであるOMEGAを提案する。
OMEGAは生成リアリズム,一貫性,可制御性を向上し,身体的および行動学的に有効なシーンの比率を増大させることを示す。
当社のアプローチでは,3秒未満の時間対コリションで,より近いコリジョンフレームを5ドル(約5,500円)で生成することも可能だ。
論文 参考訳(メタデータ) (2025-12-08T15:56:18Z) - GGMotion: Group Graph Dynamics-Kinematics Networks for Human Motion Prediction [0.0]
GGMotionはグループグラフのダイナミックス・キネマティクスネットワークで、人間のトポロジをグループでモデル化し、ダイナミックスやキネマティクスの事前利用を改善する。
グループ間およびグループ間相互作用モジュールは、異なるスケールで関節の依存関係をキャプチャするために使用される。
本手法は,短期動作予測において有意な性能差を達成している。
論文 参考訳(メタデータ) (2025-07-10T08:02:01Z) - MoSiC: Optimal-Transport Motion Trajectory for Dense Self-Supervised Learning [66.53533434848369]
密集した表現を学習する動き誘導型自己学習フレームワークを提案する。
6つの画像およびビデオデータセットと4つの評価ベンチマークにおいて、最先端を1%から6%改善する。
論文 参考訳(メタデータ) (2025-06-10T11:20:32Z) - DynMF: Neural Motion Factorization for Real-time Dynamic View Synthesis with 3D Gaussian Splatting [31.75611852583603]
動的シーンの点当たりの運動は、明示的あるいは学習的な軌跡の小さなセットに分解することができると論じる。
我々の表現は解釈可能であり、効率的であり、複雑な動的シーンの動きのリアルタイムなビュー合成を提供するのに十分な表現力を持っている。
論文 参考訳(メタデータ) (2023-11-30T18:59:11Z) - Coordinate Transformer: Achieving Single-stage Multi-person Mesh
Recovery from Videos [91.44553585470688]
ビデオから複数人の3Dメッシュを回収することは、バーチャルリアリティーや理学療法などにおけるグループ行動の自動認識に向けた重要な第一歩である。
本稿では,複数人物の時空間関係を直接モデル化し,同時にエンドツーエンドでマルチ・メッシュ・リカバリを行うコーディネート・トランスフォーマーを提案する。
3DPWデータセットの実験では、CoordFormerが最先端の精度を大幅に向上し、MPJPE、PAMPJPE、PVEの計測値でそれぞれ4.2%、8.8%、そして4.7%を上回った。
論文 参考訳(メタデータ) (2023-08-20T18:23:07Z) - Learning to Segment Rigid Motions from Two Frames [72.14906744113125]
本研究では, 運動場から独立物体の動きを復元する幾何学的解析により, モジュラーネットワークを提案する。
2つの連続フレームを入力とし、背景のセグメンテーションマスクと複数の剛体移動オブジェクトを予測し、3次元の剛体変換によってパラメータ化する。
本手法はkittiおよびsintelにおける剛体運動セグメンテーションの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-11T04:20:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。