論文の概要: Single-tap Latency Reduction with Single- or Double- tap Prediction
- arxiv url: http://arxiv.org/abs/2408.02525v1
- Date: Mon, 5 Aug 2024 14:46:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-06 13:17:11.991710
- Title: Single-tap Latency Reduction with Single- or Double- tap Prediction
- Title(参考訳): シングルタップまたはダブルタップ予測によるシングルタップレイテンシ低減
- Authors: Naoto Nishida, Kaori Ikematsu, Junichi Sato, Shota Yamanaka, Kota Tsubouchi,
- Abstract要約: そこで我々はPredicTapsと呼ばれる新しい機械学習に基づくタップ予測手法を提案する。
検出したタップが1タップか、数百ミリ秒待つことなくダブルタップの最初の接触かを予測する。
その結果、PredicTapsはシングルタップのレイテンシを、ラップトップでは150-500msから12ms、スマートフォンでは17.6msに削減した。
- 参考スコア(独自算出の注目度): 19.274925543127218
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Touch surfaces are widely utilized for smartphones, tablet PCs, and laptops (touchpad), and single and double taps are the most basic and common operations on them. The detection of single or double taps causes the single-tap latency problem, which creates a bottleneck in terms of the sensitivity of touch inputs. To reduce the single-tap latency, we propose a novel machine-learning-based tap prediction method called PredicTaps. Our method predicts whether a detected tap is a single tap or the first contact of a double tap without having to wait for the hundreds of milliseconds conventionally required. We present three evaluations and one user evaluation that demonstrate its broad applicability and usability for various tap situations on two form factors (touchpad and smartphone). The results showed PredicTaps reduces the single-tap latency from 150-500 ms to 12 ms on laptops and to 17.6 ms on smartphones without reducing usability.
- Abstract(参考訳): タッチ面はスマートフォン、タブレットPC、ラップトップ(タッチパッド)に広く使われており、シングルタップとダブルタップが最も基本的な操作である。
シングルタップまたはダブルタップの検出は、シングルタップレイテンシの問題を引き起こし、タッチ入力の感度のボトルネックを引き起こす。
シングルタップのレイテンシを低減するため,PredicTapsと呼ばれる新しい機械学習ベースのタップ予測手法を提案する。
検出したタップが単一タップなのか,あるいはダブルタップの最初の接触なのかを,従来必要だった数百ミリ秒を待たなくても予測できる。
本研究では,2つのフォームファクター(タッチパッドとスマートフォン)上で,様々なタップ状況に対する適用性とユーザビリティを示す3つの評価と1つのユーザ評価を示す。
その結果、PredicTapsはシングルタップのレイテンシを、ノートパソコンでは150-500msから12ms、スマートフォンでは17.6msに削減した。
関連論文リスト
- Digitizing Touch with an Artificial Multimodal Fingertip [51.7029315337739]
人間とロボットはどちらも、周囲の環境を知覚し、相互作用するためにタッチを使うことの恩恵を受ける。
ここでは、タッチのデジタル化を改善するための概念的および技術革新について述べる。
これらの進歩は、高度なセンシング機能を備えた人工指型センサーに具現化されている。
論文 参考訳(メタデータ) (2024-11-04T18:38:50Z) - TapType: Ten-finger text entry on everyday surfaces via Bayesian inference [32.33746932895968]
TapTypeは、受動的表面のフルサイズのタイピングのためのモバイルテキスト入力システムである。
バンド内の慣性センサーから、TapTypeは、表面タップと従来のQWERTYキーボードレイアウトをデコードして関連付ける。
論文 参考訳(メタデータ) (2024-10-08T12:58:31Z) - TouchInsight: Uncertainty-aware Rapid Touch and Text Input for Mixed Reality from Egocentric Vision [25.271209425555906]
任意の物理的表面上の10本の指すべてからタッチ入力を検出するリアルタイムパイプラインを提案する。
筆者らのTouchInsightは,タッチイベントの瞬間,指の接触,タッチ位置を予測するニューラルネットワークを備える。
論文 参考訳(メタデータ) (2024-10-08T11:42:44Z) - Learning Visuotactile Skills with Two Multifingered Hands [80.99370364907278]
マルチフィンガーハンドとバイソタクティブルデータを用いたバイマニアルシステムを用いて,人間の実演からの学習を探索する。
以上の結果から,バイスオタクティブルデータからの両指多指操作における有望な進歩が示唆された。
論文 参考訳(メタデータ) (2024-04-25T17:59:41Z) - Binding Touch to Everything: Learning Unified Multimodal Tactile
Representations [29.76008953177392]
複数モードに接続された視覚ベースのタッチセンサの統一モデルであるUniTouchを紹介する。
我々は、すでに様々なモダリティに関連付けられている事前訓練済みのイメージ埋め込みに、UniTouchの埋め込みを合わせることで、これを実現する。
さらに、学習可能なセンサ固有のトークンを提案し、不均一な触覚センサの集合からモデルを学習できるようにする。
論文 参考訳(メタデータ) (2024-01-31T18:59:57Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Mobile Behavioral Biometrics for Passive Authentication [65.94403066225384]
本研究は, 単モーダルおよび多モーダルな行動的生体特性の比較分析を行った。
HuMIdbは、最大かつ最も包括的なモバイルユーザインタラクションデータベースである。
我々の実験では、最も識別可能な背景センサーは磁力計であり、タッチタスクではキーストロークで最良の結果が得られる。
論文 参考訳(メタデータ) (2022-03-14T17:05:59Z) - TapNet: The Design, Training, Implementation, and Applications of a
Multi-Task Learning CNN for Off-Screen Mobile Input [75.05709030478073]
本稿では,スマートフォンのタップを検出するマルチタスクネットワークであるTapNetの設計,トレーニング,実装,応用について述べる。
TapNetはデバイス間のデータから共同で学習し、タップ方向やタップ位置を含む複数のタップ特性を同時に認識することができる。
論文 参考訳(メタデータ) (2021-02-18T00:45:41Z) - How Reliable is Smartphone-based Electronic Contact Tracing for
COVID-19? [5.893124686141781]
スマートフォンベースの電子接触追跡は、2020年の新型コロナウイルス(SARS-CoV-2)危機への対応として、世界中のほとんどの政府から、ロックダウンや外出禁止令、避難禁止令の緩和に欠かせないツールと考えられている。
本稿では,スマートフォンによる効果的な接触追跡に必要な技術要件について詳細に検討する。
論文 参考訳(メタデータ) (2020-05-12T09:02:53Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。