論文の概要: The Midas Touch in Gaze vs. Hand Pointing: Modality-Specific Failure Modes and Implications for XR Interfaces
- arxiv url: http://arxiv.org/abs/2603.15991v1
- Date: Mon, 16 Mar 2026 23:03:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.033003
- Title: The Midas Touch in Gaze vs. Hand Pointing: Modality-Specific Failure Modes and Implications for XR Interfaces
- Title(参考訳): 注視と手指の触覚:XRインターフェースにおけるモダリティ-特有な障害モードと意味
- Authors: Mohammad Dastgheib, Fatemeh Pourmahdian,
- Abstract要約: 我々はxr-adaptive-modality-2025プラットフォームを導入し、モダリティ固有の適応的介入がXR関連ポインティング性能を向上させるかどうかを検討する。
このプラットフォームには、生理学的にインフォメーションされた視線シミュレーション、ISO 9241-9多方向タッピングタスク、および2つのモダリティ固有の適応的介入、すなわち視線デクラッタと手指の目標幅インフレーションが組み合わされている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Extended Reality (XR) interfaces impose both ergonomic and cognitive demands, yet current systems often force a binary choice between hand-based input, which can produce fatigue, and gaze-based input, which is vulnerable to the Midas Touch problem and precision limitations. We introduce the xr-adaptive-modality-2025 platform, a web-based open-source framework for studying whether modality-specific adaptive interventions can improve XR-relevant pointing performance and reduce workload relative to static unimodal interaction. The platform combines physiologically informed gaze simulation, an ISO 9241-9 multidirectional tapping task, and two modality-specific adaptive interventions: gaze declutter and hand target-width inflation. We evaluated the system in a 2 x 2 x 2 within-subjects design manipulating Modality (Hand vs. Gaze), UI Mode (Static vs. Adaptive), and Pressure (Yes vs. No). Results from N=69 participants show that hand yielded higher throughput than gaze (5.17 vs. 4.73 bits/s), lower error (1.8% vs. 19.1%), and lower NASA-TLX workload. Crucially, error profiles differed sharply by modality: gaze errors were predominantly slips (99.2%), whereas hand errors were predominantly misses (95.7%), consistent with the Midas Touch account. Of the two adaptive interventions, only gaze declutter executed in this dataset; it modestly reduced timeouts but not slips. Hand width inflation was not evaluable due to a UI integration bug. These findings reveal modality-specific failure modes with direct implications for adaptive policy design, and establish the platform as a reproducible infrastructure for future studies.
- Abstract(参考訳): 拡張現実感(XR)インターフェースは人間工学的要求と認知的要求の両方を課すが、現在のシステムでは、疲労を引き起こす手入力と、Midas Touchの問題や精度の制限に弱い目視入力の2つの選択を迫られることが多い。
xr-adaptive-modality-2025 platformは、モダリティ固有の適応的介入がXR関連ポインティング性能を向上し、静的なユニモーダル相互作用に対する作業負荷を低減することができるかどうかを調査するための、ウェブベースのオープンソースフレームワークである。
このプラットフォームには、生理学的にインフォメーションされた視線シミュレーション、ISO 9241-9多方向タッピングタスク、および2つのモダリティ固有の適応的介入、すなわち視線デクラッタと手指の目標幅インフレーションが組み合わされている。
2 x 2 x 2 の内装設計で,モダリティ (Hand vs. Gaze) ,UIモード (Static vs. Adaptive) ,圧力 (Yes vs. No) を操作可能とした。
N=69の被験者の結果、手は視線よりも高いスループット(5.17対4.73ビット/秒)、低いエラー(1.8%対19.1%)、低いNASA-TLXの作業負荷が得られた。
視線エラーは主として滑り(99.2%)、手エラーは主としてミス(95.7%)であり、Midas Touchのアカウントと一致している。
適応的な2つの介入のうち、このデータセットで実行されるのはdeclutterのみであり、タイムアウトはわずかに減少するが、スリップはしない。
UI統合バグのため、手幅のインフレーションは評価できない。
これらの結果から,適応政策設計に直接的な意味を持つモダリティ固有の障害モードを明らかにし,今後の研究のための再現可能な基盤としてプラットフォームを確立した。
関連論文リスト
- Resource-Efficient Gesture Recognition through Convexified Attention [0.5025737475817937]
繊維集積インタフェースのための凸型アテンション機構を提案する。
本手法は,タップジェスチャーでは100.00%,スワイプジェスチャーでは100.00%の精度を実現する。
論文 参考訳(メタデータ) (2026-02-13T15:37:02Z) - DexHandDiff: Interaction-aware Diffusion Planning for Adaptive Dexterous Manipulation [78.60543357822957]
高度なロボティクスにとって、接触に富んだ相互作用による有害な操作が不可欠である。
DexHandDiffは,適応的デキスタラス操作のための対話型拡散計画フレームワークである。
当社のフレームワークは, 目標適応度の高いタスクにおいて, 平均70.7%の成功率を実現し, コンタクトリッチな操作における堅牢性と柔軟性を強調した。
論文 参考訳(メタデータ) (2024-11-27T18:03:26Z) - Inference from Real-World Sparse Measurements [21.194357028394226]
実世界の問題は、しばしば複雑で非構造的な測定セットが伴うが、これはセンサーが空間または時間に狭く配置されているときに起こる。
セットからセットまで様々な位置で測定セットを処理し、どこででも読み出しを抽出できるディープラーニングアーキテクチャは、方法論的に困難である。
本稿では,適用性と実用的堅牢性に着目したアテンションベースモデルを提案する。
論文 参考訳(メタデータ) (2022-10-20T13:42:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。