論文の概要: Fatigue-Aware Adaptive Interfaces for Wearable Devices Using Deep Learning
- arxiv url: http://arxiv.org/abs/2506.13203v1
- Date: Mon, 16 Jun 2025 08:07:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:47.784832
- Title: Fatigue-Aware Adaptive Interfaces for Wearable Devices Using Deep Learning
- Title(参考訳): 深層学習を用いたウェアラブルデバイス用疲労認識適応インタフェース
- Authors: Yikan Wang,
- Abstract要約: 本研究では,ウェアラブルデバイスを対象とした疲労対応インタフェースシステムを提案する。
ディープラーニングを使って生理的データを分析し、インターフェース要素を調整して認知負荷を軽減する。
実験の結果,認知負荷は18%減少し,ユーザ満足度は22%改善した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Wearable devices, such as smartwatches and head-mounted displays, are increasingly used for prolonged tasks like remote learning and work, but sustained interaction often leads to user fatigue, reducing efficiency and engagement. This study proposes a fatigue-aware adaptive interface system for wearable devices that leverages deep learning to analyze physiological data (e.g., heart rate, eye movement) and dynamically adjust interface elements to mitigate cognitive load. The system employs multimodal learning to process physiological and contextual inputs and reinforcement learning to optimize interface features like text size, notification frequency, and visual contrast. Experimental results show a 18% reduction in cognitive load and a 22% improvement in user satisfaction compared to static interfaces, particularly for users engaged in prolonged tasks. This approach enhances accessibility and usability in wearable computing environments.
- Abstract(参考訳): スマートウォッチやヘッドマウントディスプレイなどのウェアラブルデバイスは、遠隔学習や仕事のような長時間のタスクにますます使われていますが、持続的なインタラクションはユーザの疲労を招き、効率とエンゲージメントを低下させます。
本研究では、ディープラーニングを利用して生理的データ(例えば心拍数、眼球運動)を分析し、認知負荷を軽減するために動的にインターフェース要素を調整するウェアラブルデバイス用疲労対応インタフェースシステムを提案する。
このシステムは、生理的および文脈的な入力を処理するマルチモーダル学習と強化学習を使用して、テキストサイズ、通知周波数、視覚コントラストなどのインターフェース機能を最適化する。
実験の結果,認知負荷が18%減少し,ユーザ満足度が22%向上した。
このアプローチは、ウェアラブルコンピューティング環境におけるアクセシビリティとユーザビリティを高める。
関連論文リスト
- Think Twice, Click Once: Enhancing GUI Grounding via Fast and Slow Systems [57.30711059396246]
現在のグラフィカルユーザインタフェース(GUI)基盤システムは、自然言語命令に基づいてインターフェース要素を特定する。
人間の二重システム認識にインスパイアされたFocusは,高速予測と系統解析を組み合わせた新しいGUI基盤フレームワークである。
論文 参考訳(メタデータ) (2025-03-09T06:14:17Z) - DeepFace-Attention: Multimodal Face Biometrics for Attention Estimation with Application to e-Learning [18.36413246876648]
本研究では,Webカメラビデオに適用した顔分析手法のアンサンブルを用いて,注意レベル(認知的負荷)を推定する革新的な手法を提案する。
我々のアプローチは、最先端の顔分析技術を適用し、ユーザの認知的負荷を、高い注意や低い注意の形で定量化する。
提案手法は,mEBAL2ベンチマークを用いて,既存の最先端の精度を向上する。
論文 参考訳(メタデータ) (2024-08-10T11:39:11Z) - Modeling User Preferences via Brain-Computer Interfacing [54.3727087164445]
我々はBrain-Computer Interface技術を用いてユーザの好みを推測し、その注意力は視覚的コンテンツと感情的体験との関連性に相関する。
我々はこれらを,情報検索,生成モデルのパーソナライズされたステアリング,感情経験のクラウドソーシング人口推定など,関連するアプリケーションにリンクする。
論文 参考訳(メタデータ) (2024-05-15T20:41:46Z) - Shifting Focus with HCEye: Exploring the Dynamics of Visual Highlighting and Cognitive Load on User Attention and Saliency Prediction [3.2873782624127834]
本稿では,視覚強調(永続的・動的)と両タスクによる認知負荷が視線行動に及ぼす影響について検討する。
認知負荷の異なる場合、最先端のサリエンシモデルにより、その性能が向上することを示す。
論文 参考訳(メタデータ) (2024-04-22T14:45:30Z) - Bootstrapping Adaptive Human-Machine Interfaces with Offline
Reinforcement Learning [82.91837418721182]
適応インターフェイスは、ユーザがシーケンシャルな意思決定タスクを実行するのに役立つ。
近年のヒューマン・イン・ザ・ループ・機械学習の進歩により、ユーザとの対話によってこのようなシステムが改善されている。
本稿では,生のコマンド信号をアクションにマッピングするインタフェースを訓練するための強化学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-07T16:52:27Z) - ASHA: Assistive Teleoperation via Human-in-the-Loop Reinforcement
Learning [91.58711082348293]
オンラインユーザからのフィードバックからシステムのパフォーマンスに関する強化学習は、この問題に対する自然な解決策である。
このアプローチでは、特にフィードバックが不足している場合には、ループ内の大量のトレーニングデータが必要になる傾向があります。
疎いユーザフィードバックから効率的に学習する階層型ソリューションを提案する。
論文 参考訳(メタデータ) (2022-02-05T02:01:19Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。