論文の概要: Unique Identification of 50,000+ Virtual Reality Users from Head & Hand
Motion Data
- arxiv url: http://arxiv.org/abs/2302.08927v1
- Date: Fri, 17 Feb 2023 15:05:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-20 14:25:29.696506
- Title: Unique Identification of 50,000+ Virtual Reality Users from Head & Hand
Motion Data
- Title(参考訳): 頭と手の動きデータから見る5万人以上のバーチャルリアリティーユーザーのユニークな識別
- Authors: Vivek Nair, Wenbo Guo, Justus Mattern, Rui Wang, James F. O'Brien,
Louis Rosenberg, Dawn Song
- Abstract要約: 多数のリアルVRユーザーが頭と手の動きだけで複数のセッションで一意かつ確実に識別できることを示す。
個人あたり5分のデータで分類モデルをトレーニングした後、ユーザーは100秒の動作から94.33%の精度で50,000以上のプール全体で一意に識別することができる。
この研究は、バイオメカニクスがVRのユニークな識別子として機能しうる範囲を、顔認証や指紋認識などの広く使われている生体認証と同等に真に示す最初のものである。
- 参考スコア(独自算出の注目度): 58.27542320038834
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the recent explosive growth of interest and investment in virtual
reality (VR) and the so-called "metaverse," public attention has rightly
shifted toward the unique security and privacy threats that these platforms may
pose. While it has long been known that people reveal information about
themselves via their motion, the extent to which this makes an individual
globally identifiable within virtual reality has not yet been widely
understood. In this study, we show that a large number of real VR users
(N=55,541) can be uniquely and reliably identified across multiple sessions
using just their head and hand motion relative to virtual objects. After
training a classification model on 5 minutes of data per person, a user can be
uniquely identified amongst the entire pool of 50,000+ with 94.33% accuracy
from 100 seconds of motion, and with 73.20% accuracy from just 10 seconds of
motion. This work is the first to truly demonstrate the extent to which
biomechanics may serve as a unique identifier in VR, on par with widely used
biometrics such as facial or fingerprint recognition.
- Abstract(参考訳): 仮想現実(VR)への関心と投資の爆発的な増加といわゆる“メタバース(metaverse)”によって、これらのプラットフォームがもたらすユニークなセキュリティとプライバシの脅威に対して、大衆の注目が向けられている。
人々が自分の動きを通じて自分自身に関する情報を明らかにすることは前から知られているが、それがバーチャルリアリティー内で個人をグローバルに識別できる範囲は、まだ広く理解されていない。
本研究では,仮想物体に対する頭部と手の動きのみを用いて,複数のセッション間で,多数の現実のvrユーザ(n=55,541)を一意かつ確実に識別できることを示す。
個人あたり5分間のデータで分類モデルをトレーニングした後、ユーザーは100秒の動作から94.33%の精度で50,000以上のプール全体と、わずか10秒の動作から73.20%の精度で識別することができる。
この研究は、バイオメカニクスがVRのユニークな識別子として機能しうる範囲を、顔認証や指紋認識などの広く使われている生体認証と同等に真に示す最初のものである。
関連論文リスト
- Deep Motion Masking for Secure, Usable, and Scalable Real-Time Anonymization of Virtual Reality Motion Data [49.68609500290361]
最近の研究では、ほぼすべてのVRアプリケーションで使われているモーショントラッキングの「テレメトリ」データが、指紋スキャンと同じくらいに識別可能であることが示されている。
本稿では、既知の防御対策を確実に回避できる最先端のVR識別モデルを提案する。
論文 参考訳(メタデータ) (2023-11-09T01:34:22Z) - Can Virtual Reality Protect Users from Keystroke Inference Attacks? [23.587497604556823]
プライバシー強化の前提にもかかわらず、VRは個人情報を盗むサイドチャネル攻撃からユーザーを守ることはできない。
この脆弱性はVRの最大の強み、没入的でインタラクティブな性質から生じます。
論文 参考訳(メタデータ) (2023-10-24T21:19:38Z) - BehaVR: User Identification Based on VR Sensor Data [7.114684260471529]
これは、VRデバイス上で実行される複数のアプリによって収集されたすべてのセンサグループからのデータを収集し、分析するフレームワークである。
私たちはBehaVRを使って、20の人気のある現実世界のアプリと対話する実際のユーザーからデータを収集しています。
私たちは、利用可能なセンサデータから機能を抽出して、アプリ内およびアプリ間のユーザ識別のための機械学習モデルを構築します。
論文 参考訳(メタデータ) (2023-08-14T17:43:42Z) - Physics-based Motion Retargeting from Sparse Inputs [73.94570049637717]
商用AR/VR製品はヘッドセットとコントローラーのみで構成されており、ユーザーのポーズのセンサーデータは非常に限られている。
本研究では, 多様な形態のキャラクタに対して, 粗い人間のセンサデータからリアルタイムに動きをターゲットする手法を提案する。
アバターのポーズは、下半身のセンサー情報がないにもかかわらず、驚くほどよくユーザと一致していることを示す。
論文 参考訳(メタデータ) (2023-07-04T21:57:05Z) - Eye-tracked Virtual Reality: A Comprehensive Survey on Methods and
Privacy Challenges [33.50215933003216]
この調査は、仮想現実(VR)における視線追跡と、それらの可能性のプライバシーへの影響に焦点を当てている。
われわれは2012年から2022年にかけて、視線追跡、VR、プライバシー分野における主要な研究を最初に取り上げている。
我々は、視線に基づく認証と、個人のプライバシーと視線追跡データをVRで保存するための計算方法に焦点を当てる。
論文 参考訳(メタデータ) (2023-05-23T14:02:38Z) - Towards Zero-trust Security for the Metaverse [14.115124942695887]
ソーシャルバーチャルリアリティー(VR)におけるゼロトラストユーザ認証のための総合的研究アジェンダを開発する。
提案研究は,VRユーザの継続的な認証に適したバイオメトリックスベースの認証,バイオメトリックデータのユーザプライバシ保護のためのフェデレート学習の活用,マルチモーダルデータによる連続VR認証の精度向上,適応VR認証によるゼロトラストセキュリティのユーザビリティ向上の4つの具体的ステップを含む。
論文 参考訳(メタデータ) (2023-02-17T14:13:02Z) - Force-Aware Interface via Electromyography for Natural VR/AR Interaction [69.1332992637271]
我々はVR/ARにおける自然的および直感的な力入力のための学習ベースのニューラルネットワークを設計する。
我々は,3.3%の平均誤差で指の力量をリアルタイムでデコードし,キャリブレーションの少ない新規ユーザに一般化できることを実証した。
今後のVR/ARにおける、より現実的な物理性に向けた研究を進めるために、我々の研究成果を期待する。
論文 参考訳(メタデータ) (2022-10-03T20:51:25Z) - The Gesture Authoring Space: Authoring Customised Hand Gestures for
Grasping Virtual Objects in Immersive Virtual Environments [81.5101473684021]
本研究は、仮想オブジェクトを現実世界のようにつかむことができる、オブジェクト固有のグリップジェスチャーのためのハンドジェスチャーオーサリングツールを提案する。
提示されたソリューションは、ジェスチャー認識にテンプレートマッチングを使用し、カスタムのカスタマイズされた手の動きを設計および作成するために技術的な知識を必要としない。
本研究は,提案手法を用いて作成したジェスチャーが,ユーザによって他のユーザよりも自然な入力モダリティとして認識されていることを示した。
論文 参考訳(メタデータ) (2022-07-03T18:33:33Z) - Robust Egocentric Photo-realistic Facial Expression Transfer for Virtual
Reality [68.18446501943585]
ソーシャルな存在は、バーチャルリアリティー(VR)におけるデジタル人間による次世代コミュニケーションシステムを支える
最高の3DビデオリアルVRアバターは、人固有の(PS)モデルに依存します。
本稿では,エンドツーエンドのマルチアイデンティティアーキテクチャを提案することで,これらの制限を克服する。
論文 参考訳(メタデータ) (2021-04-10T15:48:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。