論文の概要: Rethinking Eye-blink: Assessing Task Difficulty through Physiological
Representation of Spontaneous Blinking
- arxiv url: http://arxiv.org/abs/2102.06690v1
- Date: Fri, 12 Feb 2021 18:47:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-15 13:16:38.115482
- Title: Rethinking Eye-blink: Assessing Task Difficulty through Physiological
Representation of Spontaneous Blinking
- Title(参考訳): 瞬き再考 : 瞬きの生理的表現による難易度の評価
- Authors: Youngjun Cho
- Abstract要約: 本稿では,タスク難易度の自動推定のための視線応答分析手法を提案する。
コアモジュールは、点滅に反映された情報の豊かさをキャプチャすることを目的としたアイリンクの時間周波数表現です。
- 参考スコア(独自算出の注目度): 3.680403821470857
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continuous assessment of task difficulty and mental workload is essential in
improving the usability and accessibility of interactive systems. Eye tracking
data has often been investigated to achieve this ability, with reports on the
limited role of standard blink metrics. Here, we propose a new approach to the
analysis of eye-blink responses for automated estimation of task difficulty.
The core module is a time-frequency representation of eye-blink, which aims to
capture the richness of information reflected on blinking. In our first study,
we show that this method significantly improves the sensitivity to task
difficulty. We then demonstrate how to form a framework where the represented
patterns are analyzed with multi-dimensional Long Short-Term Memory recurrent
neural networks for their non-linear mapping onto difficulty-related
parameters. This framework outperformed other methods that used hand-engineered
features. This approach works with any built-in camera, without requiring
specialized devices. We conclude by discussing how Rethinking Eye-blink can
benefit real-world applications.
- Abstract(参考訳): インタラクティブシステムのユーザビリティとアクセシビリティ向上には,タスク難易度とメンタルワークロードの継続的な評価が不可欠である。
この能力を達成するために、アイトラッキングのデータがしばしば調査され、標準的なblinkメトリクスの役割が限定されている。
本稿では,タスク難易度の自動推定のためのアイリンク応答解析のための新しい手法を提案する。
コアモジュールは、点滅に反映された情報の豊かさをキャプチャすることを目的としたアイリンクの時間周波数表現です。
本研究では,タスク難易度に対する感度が有意に向上することを示した。
次に,表現されたパターンを多次元の短期記憶リカレントニューラルネットワークで解析し,難易度関連パラメータへの非線形マッピングを行うフレームワークを構築する方法を示す。
このフレームワークはハンドエンジニアリング機能を使用した他の手法よりも優れていた。
このアプローチは、特別なデバイスを必要とせずに、内蔵カメラで機能する。
我々は、Rethinking Eye-blinkが現実世界のアプリケーションにどのように役立つかを議論することで締めくくります。
関連論文リスト
- Understanding Long Videos via LLM-Powered Entity Relation Graphs [51.13422967711056]
GraphVideoAgentは、ビデオシーケンスを通して視覚的エンティティ間の進化する関係をマップし、監視するフレームワークである。
当社の手法は,業界ベンチマークと比較した場合,顕著な効果を示す。
論文 参考訳(メタデータ) (2025-01-27T10:57:24Z) - MimicGait: A Model Agnostic approach for Occluded Gait Recognition using Correlational Knowledge Distillation [40.75942030089628]
我々は,オクルージョンの存在下で歩行認識のためのモデルに依存しないアプローチであるMimicGaitを提案する。
対象者の閉鎖歩行パターンにおけるシーケンス間相関とシーケンス内相関の両方を捉えるために,マルチインスタンス相関蒸留損失を用いてネットワークを訓練する。
我々は,GREW,Gait3D,BRIARといった実世界のデータセットに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2025-01-26T20:23:44Z) - Apprenticeship-Inspired Elegance: Synergistic Knowledge Distillation Empowers Spiking Neural Networks for Efficient Single-Eye Emotion Recognition [53.359383163184425]
本稿では, 効率的な単一眼球運動認識タスクに適した, マルチモーダル・シナジスティック知識蒸留方式を提案する。
この方法では、軽量で単調な学生スパイクニューラルネットワーク(SNN)が、イベントフレームマルチモーダル教師ネットワークから豊富な知識を抽出することができる。
論文 参考訳(メタデータ) (2024-06-20T07:24:47Z) - LEAP-VO: Long-term Effective Any Point Tracking for Visual Odometry [52.131996528655094]
本稿では,LEAP(Long-term Effective Any Point Tracking)モジュールについて述べる。
LEAPは、動的トラック推定のために、視覚的、トラック間、時間的キューと慎重に選択されたアンカーを革新的に組み合わせている。
これらの特徴に基づき,強靭な視力計測システムLEAP-VOを開発した。
論文 参考訳(メタデータ) (2024-01-03T18:57:27Z) - CLERA: A Unified Model for Joint Cognitive Load and Eye Region Analysis
in the Wild [18.79132232751083]
目領域のダイナミックスをリアルタイムに分析することで、人間の視覚的注意の割り当てを監視し、精神状態を推定することができる。
共同学習フレームワークにおいて,正確なキーポイント検出と時間追跡を実現するCLERAを提案する。
また,共同瞳孔,眼開放性,ランドマークアノテーションを用いた30万人の顔の大規模データセットも導入した。
論文 参考訳(メタデータ) (2023-06-26T21:20:23Z) - A Deep Learning Approach for the Segmentation of Electroencephalography
Data in Eye Tracking Applications [56.458448869572294]
脳波データの時系列セグメンテーションのための新しいフレームワークDETRtimeを紹介する。
エンドツーエンドのディープラーニングベースのフレームワークは、コンピュータビジョンの進歩を前面に立たせています。
我々のモデルは脳波睡眠ステージセグメンテーションのタスクにおいてよく一般化される。
論文 参考訳(メタデータ) (2022-06-17T10:17:24Z) - mPLUG: Effective and Efficient Vision-Language Learning by Cross-modal
Skip-connections [104.14624185375897]
mPLUGは、クロスモーダルな理解と生成のための新しいビジョン言語基盤モデルである。
画像キャプション、画像テキスト検索、視覚的グラウンドリング、視覚的質問応答など、幅広い視覚言語下流タスクの最先端結果を達成する。
論文 参考訳(メタデータ) (2022-05-24T11:52:06Z) - ALEBk: Feasibility Study of Attention Level Estimation via Blink
Detection applied to e-Learning [6.325464216802613]
オンラインセッションにおける学生の視線点滅率と注意度との関係を実験的に評価した。
その結果, 点眼周波数と注意レベルとの逆相関が示唆された。
本研究は,今後のeラーニングプラットフォームに注目度推定技術を導入するための新しい研究ラインを開設する。
論文 参考訳(メタデータ) (2021-12-16T19:23:56Z) - ST-MTL: Spatio-Temporal Multitask Learning Model to Predict Scanpath
While Tracking Instruments in Robotic Surgery [14.47768738295518]
トラッキング機器によるタスク指向の注意の学習は、画像誘導型ロボット手術において大きな可能性を秘めている。
本稿では,リアルタイムの手術機器分割とタスク指向唾液度検出のための共有エンコーダとシンク時デコーダを用いたエンドツーエンドマルチタスク学習(ST-MTL)モデルを提案する。
本稿では,各デコーダの独立勾配を計算することで,非同期時間最適化手法を提案する。
最先端のセグメンテーションとサリエンシ手法と比較して、我々のモデルは評価指標よりも優れており、挑戦において優れた性能を生んでいる。
論文 参考訳(メタデータ) (2021-12-10T15:20:27Z) - Causal Navigation by Continuous-time Neural Networks [108.84958284162857]
本研究では,連続時間ニューラルネットワークを用いた因果表現学習のための理論的,実験的枠組みを提案する。
本手法は,ドローンの視覚制御学習の文脈において,一連の複雑なタスクにおいて評価する。
論文 参考訳(メタデータ) (2021-06-15T17:45:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。