論文の概要: BiFingerPose: Bimodal Finger Pose Estimation for Touch Devices
- arxiv url: http://arxiv.org/abs/2511.17306v1
- Date: Fri, 21 Nov 2025 15:21:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-24 18:08:19.073872
- Title: BiFingerPose: Bimodal Finger Pose Estimation for Touch Devices
- Title(参考訳): BiFingerPose: タッチデバイスのバイモーダルフィンガーポス推定
- Authors: Xiongjun Guan, Zhiyu Pan, Jianjiang Feng, Jie Zhou,
- Abstract要約: 本稿では,バイモーダルな指ポーズ推定アルゴリズムであるBiFingerPoseを提案する。
タッチスクリーンから得られる容量画像と指紋パッチとを、画面下指紋センサで探索する。
提案手法は, 単一のモータリティのみでは達成できないロール角の信頼性の高い推定に導かれる。
- 参考スコア(独自算出の注目度): 31.932777820189827
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Finger pose offers promising opportunities to expand human computer interaction capability of touchscreen devices. Existing finger pose estimation algorithms that can be implemented in portable devices predominantly rely on capacitive images, which are currently limited to estimating pitch and yaw angles and exhibit reduced accuracy when processing large-angle inputs (especially when it is greater than 45 degrees). In this paper, we propose BiFingerPose, a novel bimodal based finger pose estimation algorithm capable of simultaneously and accurately predicting comprehensive finger pose information. A bimodal input is explored, including a capacitive image and a fingerprint patch obtained from the touchscreen with an under-screen fingerprint sensor. Our approach leads to reliable estimation of roll angle, which is not achievable using only a single modality. In addition, the prediction performance of other pose parameters has also been greatly improved. The evaluation of a 12-person user study on continuous and discrete interaction tasks further validated the advantages of our approach. Specifically, BiFingerPose outperforms previous SOTA methods with over 21% improvement in prediction performance, 2.5 times higher task completion efficiency, and 23% better user operation accuracy, demonstrating its practical superiority. Finally, we delineate the application space of finger pose with respect to enhancing authentication security and improving interactive experiences, and develop corresponding prototypes to showcase the interaction potential. Our code will be available at https://github.com/XiongjunGuan/DualFingerPose.
- Abstract(参考訳): フィンガーポーズは、タッチスクリーンデバイスの人間のコンピュータインタラクション能力を拡大する有望な機会を提供する。
携帯端末で実装可能な既存の指ポーズ推定アルゴリズムは、主に容量画像に依存しており、これは現在ピッチとヨー角の推定に限られており、大角入力を処理する場合(特に45度以上の場合)の精度が低下している。
本稿では,バイモーダル型指ポーズ推定アルゴリズムであるBiFingerPoseを提案する。
タッチスクリーンから取得した容量画像と指紋パッチとをアンダースクリーン指紋センサとを含むバイモーダル入力を探索する。
提案手法は, 単一のモータリティのみでは達成できないロール角の信頼性の高い推定に導かれる。
さらに、他のポーズパラメータの予測性能も大幅に改善されている。
連続的および離散的なインタラクションタスクに関する12人のユーザスタディの評価は、我々のアプローチの利点をさらに検証した。
具体的には、BiFingerPoseは、予測性能が21%向上し、タスク完了効率が2.5倍向上し、ユーザ操作精度が23%向上した従来のSOTA手法よりも優れており、実用上の優位性を示している。
最後に,認証セキュリティの強化と対話的体験の向上に関して,指ポーズの応用空間を明確にし,対話可能性を示すためのプロトタイプを開発する。
私たちのコードはhttps://github.com/XiongjunGuan/DualFingerPose.orgで公開されます。
関連論文リスト
- Finger Pose Estimation for Under-screen Fingerprint Sensor [33.05877729161858]
画面下指紋ポーズ推定のための新しいデュアルモーダル入力ベースネットワークを提案する。
本手法は,スクリーン下指紋センサによる隆起パッチから抽出したテクスチャの詳細と,タッチスクリーンから得られた容量画像から得られた粗い輪郭を効果的に統合する。
本手法は従来のSOTA法よりも優れており,指紋認識アルゴリズムの認識能力を大幅に向上させる。
論文 参考訳(メタデータ) (2025-05-05T09:05:47Z) - Joint Identity Verification and Pose Alignment for Partial Fingerprints [33.05877729161858]
本稿では,部分指紋ペアの協調識別とポーズアライメントのための新しいフレームワークを提案する。
本手法は,部分的指紋認証と相対的ポーズ推定の両方において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-05-07T02:45:50Z) - Learning Visuotactile Skills with Two Multifingered Hands [80.99370364907278]
マルチフィンガーハンドとバイソタクティブルデータを用いたバイマニアルシステムを用いて,人間の実演からの学習を探索する。
以上の結果から,バイスオタクティブルデータからの両指多指操作における有望な進歩が示唆された。
論文 参考訳(メタデータ) (2024-04-25T17:59:41Z) - Accelerated Fingerprint Enhancement: A GPU-Optimized Mixed Architecture
Approach [47.87570819350573]
本論文は,Unet混在アーキテクチャを中心に設計された潜伏指紋強調への予備的アプローチを示す。
Resnet-101ネットワークとUnetエンコーダの能力を組み合わせることで、潜在的に強力なコンポジットを作ることを目指している。
このアプローチの革新的な要素の1つは、GPU計算用に特別に設計された新しいFingerprint Enhancement Gabor層である。
論文 参考訳(メタデータ) (2023-06-01T01:19:32Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - The Feeling of Success: Does Touch Sensing Help Predict Grasp Outcomes? [57.366931129764815]
両指にGelSight高解像度触覚センサを装着した2本指グリップを用いて,9000以上の握力試験を行った。
実験結果から,触覚を取り入れることで把握性能が著しく向上することが示唆された。
論文 参考訳(メタデータ) (2017-10-16T05:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。