論文の概要: Predicting 3D Motion from 2D Video for Behavior-Based VR Biometrics
- arxiv url: http://arxiv.org/abs/2502.04361v1
- Date: Wed, 05 Feb 2025 02:19:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-10 14:57:26.467460
- Title: Predicting 3D Motion from 2D Video for Behavior-Based VR Biometrics
- Title(参考訳): 行動に基づくVRバイオメトリックスのための2次元映像からの3次元運動予測
- Authors: Mingjun Li, Natasha Kholgade Banerjee, Sean Banerjee,
- Abstract要約: 被験者の右側から取得した2Dボディジョイントを,外部の2Dカメラで撮影する手法を提案する。
本手法では,VRデバイスが追跡していない関節の2次元データを用いて,制御器の過去と将来の3次元トラックを予測する。
- 参考スコア(独自算出の注目度): 7.609875877250929
- License:
- Abstract: Critical VR applications in domains such as healthcare, education, and finance that use traditional credentials, such as PIN, password, or multi-factor authentication, stand the chance of being compromised if a malicious person acquires the user credentials or if the user hands over their credentials to an ally. Recently, a number of approaches on user authentication have emerged that use motions of VR head-mounted displays (HMDs) and hand controllers during user interactions in VR to represent the user's behavior as a VR biometric signature. One of the fundamental limitations of behavior-based approaches is that current on-device tracking for HMDs and controllers lacks capability to perform tracking of full-body joint articulation, losing key signature data encapsulated by the user articulation. In this paper, we propose an approach that uses 2D body joints, namely shoulder, elbow, wrist, hip, knee, and ankle, acquired from the right side of the participants using an external 2D camera. Using a Transformer-based deep neural network, our method uses the 2D data of body joints that are not tracked by the VR device to predict past and future 3D tracks of the right controller, providing the benefit of augmenting 3D knowledge in authentication. Our approach provides a minimum equal error rate (EER) of 0.025, and a maximum EER drop of 0.040 over prior work that uses single-unit 3D trajectory as the input.
- Abstract(参考訳): 医療、教育、ファイナンスといった、PIN、パスワード、多要素認証などの従来の認証情報を使用する分野における重要なVRアプリケーションは、悪意のある人がユーザーの認証情報を取得したり、ユーザーが認証情報を同盟に渡したりした場合、侵害される可能性がある。
近年,VRにおけるユーザインタラクション中にVRヘッドマウントディスプレイ(HMD)とハンドコントローラの動作を利用して,ユーザの振る舞いをVRバイオメトリックシグネチャとして表現する,ユーザ認証に対するアプローチが数多く出現している。
動作に基づくアプローチの基本的な制限の1つは、現在のHMDとコントローラのオンデバイストラッキングには、全体の関節関節の追跡機能がなく、ユーザの関節によってカプセル化されたキーシグネチャデータを失うことである。
本稿では, 肩, 肘, 手首, ヒップ, 膝, 足首の2次元関節を外的2Dカメラを用いて被験者の右側から取得するアプローチを提案する。
トランスフォーマーをベースとしたディープニューラルネットワークを用いて,VRデバイスが追跡していない2次元関節データを用いて,適切なコントローラの過去と将来の3Dトラックを予測し,認証における3D知識の増大のメリットを提供する。
提案手法は, 入力として単ユニット3D軌道を用いた先行処理に対して, 最小等速(EER) 0.025, 最大EERドロップ0.040を提供する。
関連論文リスト
- Tremor Reduction for Accessible Ray Based Interaction in VR Applications [0.0]
多くの従来の2Dインタフェースのインタラクション方法は、入力機構にほとんど変更を加えることなく、VR空間で直接動作するように変換されている。
本稿では,低域通過フィルタを用いてユーザ入力ノイズの正規化を行い,光線による相互作用におけるモータの細かな要求を緩和する手法を提案する。
論文 参考訳(メタデータ) (2024-05-12T17:07:16Z) - Evaluating Deep Networks for Detecting User Familiarity with VR from
Hand Interactions [7.609875877250929]
会議室やオフィス、クリニックなど、共同の仮想空間への入り口として、私たちはVRドアを使用します。
ユーザーはVRに慣れていないかもしれないが、ドアを開くのに慣れているだろう。
VRに精通した7人のユーザとVRに精通していない7人のユーザからなるパイロットデータセットを使用して、6人のテストユーザ、3人の馴染みのない3人のテストユーザを、残りの8人のデータを使ってトレーニングされた分類器で評価すると、88.03%の精度を得る。
論文 参考訳(メタデータ) (2024-01-27T19:15:24Z) - Deep Motion Masking for Secure, Usable, and Scalable Real-Time Anonymization of Virtual Reality Motion Data [49.68609500290361]
最近の研究では、ほぼすべてのVRアプリケーションで使われているモーショントラッキングの「テレメトリ」データが、指紋スキャンと同じくらいに識別可能であることが示されている。
本稿では、既知の防御対策を確実に回避できる最先端のVR識別モデルを提案する。
論文 参考訳(メタデータ) (2023-11-09T01:34:22Z) - BehaVR: User Identification Based on VR Sensor Data [7.114684260471529]
これは、VRデバイス上で実行される複数のアプリによって収集されたすべてのセンサグループからのデータを収集し、分析するフレームワークである。
私たちはBehaVRを使って、20の人気のある現実世界のアプリと対話する実際のユーザーからデータを収集しています。
私たちは、利用可能なセンサデータから機能を抽出して、アプリ内およびアプリ間のユーザ識別のための機械学習モデルを構築します。
論文 参考訳(メタデータ) (2023-08-14T17:43:42Z) - HOOV: Hand Out-Of-View Tracking for Proprioceptive Interaction using
Inertial Sensing [25.34222794274071]
HOOVは、VRユーザーが視野外の物体と対話できる手首回りのセンシング手法である。
単一手首の慣性センサの信号に基づいて,HOOVはユーザの手の位置を3空間で連続的に推定する。
我々の新しいデータ駆動手法は,手の位置と軌道を,手振りの連続的な推定から予測する。
論文 参考訳(メタデータ) (2023-03-13T11:25:32Z) - Unique Identification of 50,000+ Virtual Reality Users from Head & Hand
Motion Data [58.27542320038834]
多数のリアルVRユーザーが頭と手の動きだけで複数のセッションで一意かつ確実に識別できることを示す。
個人あたり5分のデータで分類モデルをトレーニングした後、ユーザーは100秒の動作から94.33%の精度で50,000以上のプール全体で一意に識別することができる。
この研究は、バイオメカニクスがVRのユニークな識別子として機能しうる範囲を、顔認証や指紋認識などの広く使われている生体認証と同等に真に示す最初のものである。
論文 参考訳(メタデータ) (2023-02-17T15:05:18Z) - Force-Aware Interface via Electromyography for Natural VR/AR Interaction [69.1332992637271]
我々はVR/ARにおける自然的および直感的な力入力のための学習ベースのニューラルネットワークを設計する。
我々は,3.3%の平均誤差で指の力量をリアルタイムでデコードし,キャリブレーションの少ない新規ユーザに一般化できることを実証した。
今後のVR/ARにおける、より現実的な物理性に向けた研究を進めるために、我々の研究成果を期待する。
論文 参考訳(メタデータ) (2022-10-03T20:51:25Z) - Towards 3D VR-Sketch to 3D Shape Retrieval [128.47604316459905]
入力モダリティとしての3Dスケッチの利用について検討し、検索を行うVRシナリオを提唱する。
この新しい3DVR-Sketchから3D形状の検索問題に対する最初のスタンプとして、私たちは4つのコントリビューションを行います。
論文 参考訳(メタデータ) (2022-09-20T22:04:31Z) - Unmasking Communication Partners: A Low-Cost AI Solution for Digitally
Removing Head-Mounted Displays in VR-Based Telepresence [62.997667081978825]
バーチャルリアリティ(VR)における対面会話は、被験者がヘッドマウントディスプレイ(HMD)を装着する際の課題である
過去の研究では、高コストハードウェアを用いた実験室環境では、VRで個人用アバターを用いた高忠実な顔再構成が可能であることが示されている。
我々は,オープンソース,フリーソフトウェア,安価なハードウェアのみを利用する,このタスクのための最初の低コストシステムを提案する。
論文 参考訳(メタデータ) (2020-11-06T23:17:12Z) - Physics-Based Dexterous Manipulations with Estimated Hand Poses and
Residual Reinforcement Learning [52.37106940303246]
ノイズの多い入力ポーズをターゲットの仮想ポーズにマッピングするモデルを学習する。
モデルフリーハイブリッドRL+ILアプローチを用いて残留条件下で訓練する。
筆者らは,VRにおける手動物体の相互作用と,それを用いた手動物体の動作再構成という,手動姿勢推定を用いた2つのアプリケーションで,我々のフレームワークを検証した。
論文 参考訳(メタデータ) (2020-08-07T17:34:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。