論文の概要: A Hands-free Spatial Selection and Interaction Technique using Gaze and Blink Input with Blink Prediction for Extended Reality
- arxiv url: http://arxiv.org/abs/2501.11540v1
- Date: Mon, 20 Jan 2025 15:25:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:20:16.288342
- Title: A Hands-free Spatial Selection and Interaction Technique using Gaze and Blink Input with Blink Prediction for Extended Reality
- Title(参考訳): 視線と瞬き入力を用いた拡張現実感の瞬き予測によるハンズフリー空間選択とインタラクション手法
- Authors: Tim Rolff, Jenny Gabel, Lauren Zerbin, Niklas Hypki, Susanne Schmidt, Markus Lappe, Frank Steinicke,
- Abstract要約: 本稿では、ユーザの視線と意図的な視線ブラインドを利用するハンズフリーのGaze+Blinkインタラクション技術を提案する。
この技術は、ユーザが意図的な点滅を実行して選択を行うことを可能にする。
スクロールやドラッグ・アンド・ドロップなどの連続的な相互作用を、頭部の動きと結合したアイ・リンクを通じて促進する。
- 参考スコア(独自算出の注目度): 13.589534304403657
- License:
- Abstract: Gaze-based interaction techniques have created significant interest in the field of spatial interaction. Many of these methods require additional input modalities, such as hand gestures (e.g., gaze coupled with pinch). Those can be uncomfortable and difficult to perform in public or limited spaces, and pose challenges for users who are unable to execute pinch gestures. To address these aspects, we propose a novel, hands-free Gaze+Blink interaction technique that leverages the user's gaze and intentional eye blinks. This technique enables users to perform selections by executing intentional blinks. It facilitates continuous interactions, such as scrolling or drag-and-drop, through eye blinks coupled with head movements. So far, this concept has not been explored for hands-free spatial interaction techniques. We evaluated the performance and user experience (UX) of our Gaze+Blink method with two user studies and compared it with Gaze+Pinch in a realistic user interface setup featuring common menu interaction tasks. Study 1 demonstrated that while Gaze+Blink achieved comparable selection speeds, it was prone to accidental selections resulting from unintentional blinks. In Study 2 we explored an enhanced technique employing a deep learning algorithms for filtering out unintentional blinks.
- Abstract(参考訳): 注視に基づく相互作用技術は、空間的相互作用の分野に大きな関心を生んでいる。
これらの手法の多くは、手の動き(例えば、ピンチとつながった視線)のような追加の入力モダリティを必要とする。
これらは公開スペースや限定スペースでの実行が困難であり、ピンチジェスチャーを実行できないユーザにとって課題となる可能性がある。
これらの課題に対処するために,ユーザの視線と意図的な視線ブラインドを利用する,ハンズフリーのGaze+Blinkインタラクション技術を提案する。
この技術は、ユーザが意図的な点滅を実行して選択を行うことを可能にする。
スクロールやドラッグ・アンド・ドロップなどの連続的な相互作用を、頭部の動きと結合したアイ・リンクを通じて促進する。
これまでのところ、この概念はハンズフリー空間相互作用技術のためには研究されていない。
本稿では,Gaze+Blink法の性能とユーザエクスペリエンス(UX)を2つのユーザスタディで評価し,共通メニューインタラクションタスクを備えた現実的なユーザインタフェースでGaze+Pinchと比較した。
研究1は、Gaze+Blinkが同等の選択速度を達成した一方で、意図しない点滅による偶発的な選択の傾向を示した。
研究2では,意図しない点滅をフィルタリングする深層学習アルゴリズムを用いた拡張手法について検討した。
関連論文リスト
- GEARS: Local Geometry-aware Hand-object Interaction Synthesis [38.75942505771009]
本研究では, 相互作用領域近傍の局所物体形状を推定するための, 結合中心型センサを提案する。
学習の複雑さを軽減するための重要なステップとして、グローバルフレームからテンプレートハンドフレームにポイントを変換し、共有モジュールを使用して各関節のセンサ特徴を処理する。
これに続いて、異なる次元の関節間の相関を捉えることを目的とした知覚時間変換ネットワークが提供される。
論文 参考訳(メタデータ) (2024-04-02T09:18:52Z) - Disentangled Interaction Representation for One-Stage Human-Object
Interaction Detection [70.96299509159981]
ヒューマン・オブジェクト・インタラクション(HOI)検出は、人間中心の画像理解のコアタスクである。
最近のワンステージ手法では、対話予測に有用な画像ワイドキューの収集にトランスフォーマーデコーダを採用している。
従来の2段階の手法は、非絡み合いで説明可能な方法で相互作用特徴を構成する能力から大きな恩恵を受ける。
論文 参考訳(メタデータ) (2023-12-04T08:02:59Z) - InterControl: Zero-shot Human Interaction Generation by Controlling Every Joint [67.6297384588837]
関節間の所望距離を維持するために,新しい制御可能な運動生成手法であるInterControlを導入する。
そこで本研究では,既成の大規模言語モデルを用いて,ヒューマンインタラクションのための結合ペア間の距離を生成できることを実証した。
論文 参考訳(メタデータ) (2023-11-27T14:32:33Z) - Enhancing HOI Detection with Contextual Cues from Large Vision-Language Models [56.257840490146]
ConCueは、HOI検出における視覚的特徴抽出を改善するための新しいアプローチである。
コンテクストキューをインスタンスと相互作用検出器の両方に統合するマルチトウワーアーキテクチャを用いたトランスフォーマーベースの特徴抽出モジュールを開発した。
論文 参考訳(メタデータ) (2023-11-26T09:11:32Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Gesture2Path: Imitation Learning for Gesture-aware Navigation [54.570943577423094]
Gesture2Pathは、画像に基づく模倣学習とモデル予測制御を組み合わせた新しいソーシャルナビゲーション手法である。
実際のロボットに本手法をデプロイし,4つのジェスチャーナビゲーションシナリオに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2022-09-19T23:05:36Z) - The Gesture Authoring Space: Authoring Customised Hand Gestures for
Grasping Virtual Objects in Immersive Virtual Environments [81.5101473684021]
本研究は、仮想オブジェクトを現実世界のようにつかむことができる、オブジェクト固有のグリップジェスチャーのためのハンドジェスチャーオーサリングツールを提案する。
提示されたソリューションは、ジェスチャー認識にテンプレートマッチングを使用し、カスタムのカスタマイズされた手の動きを設計および作成するために技術的な知識を必要としない。
本研究は,提案手法を用いて作成したジェスチャーが,ユーザによって他のユーザよりも自然な入力モダリティとして認識されていることを示した。
論文 参考訳(メタデータ) (2022-07-03T18:33:33Z) - MIDAS: Deep learning human action intention prediction from natural eye
movement patterns [6.557082555839739]
自然視のみに基づく対象操作タスクに対する人間の意図をデコードするための、完全にデータ駆動型アプローチを提案する。
以上の結果から,自然な視線と相対位置から純粋に人間の動きの意図を911.9%の精度で復号できることが示唆された。
論文 参考訳(メタデータ) (2022-01-22T21:52:42Z) - Touch-based Curiosity for Sparse-Reward Tasks [15.766198618516137]
タッチフィードバックのミスマッチからサプライズを使用して,難解な強化学習タスクの探索をガイドしています。
私たちのアプローチであるタッチベースのCuriosity(ToC)は、目に見えるオブジェクトの相互作用が「感じる」ことを学習します。
我々はタッチ集約型ロボットアームタスクにアプローチを試行する。
論文 参考訳(メタデータ) (2021-04-01T12:49:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。