論文の概要: Motion-Based User Identification across XR and Metaverse Applications by Deep Classification and Similarity Learning
- arxiv url: http://arxiv.org/abs/2509.08539v1
- Date: Wed, 10 Sep 2025 12:38:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 15:16:52.419154
- Title: Motion-Based User Identification across XR and Metaverse Applications by Deep Classification and Similarity Learning
- Title(参考訳): 深い分類と類似性学習によるXRおよびメタバースアプリケーション間の動きに基づくユーザ識別
- Authors: Lukas Schach, Christian Rack, Ryan P. McMahan, Marc Erich Latoschik,
- Abstract要約: 本稿では,様々な拡張現実感(XR)アプリケーションにおいて,ユーザの動作に基づいてユーザを確実に識別する2つの最先端分類モデルと類似性学習モデルの一般化能力について検討する。
我々は,5つの異なるXRアプリケーションにおいて,49人のユーザから幅広い動作データを含む新しいデータセットを開発した。
- 参考スコア(独自算出の注目度): 18.959797884251742
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper examines the generalization capacity of two state-of-the-art classification and similarity learning models in reliably identifying users based on their motions in various Extended Reality (XR) applications. We developed a novel dataset containing a wide range of motion data from 49 users in five different XR applications: four XR games with distinct tasks and action patterns, and an additional social XR application with no predefined task sets. The dataset is used to evaluate the performance and, in particular, the generalization capacity of the two models across applications. Our results indicate that while the models can accurately identify individuals within the same application, their ability to identify users across different XR applications remains limited. Overall, our results provide insight into current models generalization capabilities and suitability as biometric methods for user verification and identification. The results also serve as a much-needed risk assessment of hazardous and unwanted user identification in XR and Metaverse applications. Our cross-application XR motion dataset and code are made available to the public to encourage similar research on the generalization of motion-based user identification in typical Metaverse application use cases.
- Abstract(参考訳): 本稿では,様々な拡張現実感(XR)アプリケーションにおいて,ユーザの動作に基づいてユーザを確実に識別する2つの最先端分類モデルと類似性学習モデルの一般化能力について検討する。
5つの異なるタスクとアクションパターンを持つ4つのXRゲームと、事前に定義されたタスクセットを持たない追加のソーシャルXRアプリケーションである。
データセットは、パフォーマンス、特にアプリケーション間での2つのモデルの一般化能力を評価するために使用される。
以上の結果から,モデルが同一アプリケーション内の個人を正確に識別できる一方で,異なるXRアプリケーション間でユーザを識別する能力は限定的であることが示唆された。
全体として,ユーザ認証と識別のためのバイオメトリック手法として,現在のモデル一般化機能と適合性について考察した。
また、XRおよびMetaverseアプリケーションにおける危険かつ望ましくないユーザ識別のリスク評価にも役立ちます。
我々のクロスアプリケーションXRモーションデータセットとコードは一般に公開されており、典型的なMetaverseアプリケーションユースケースにおけるモーションベースのユーザ識別の一般化に関する同様の研究を奨励している。
関連論文リスト
- XTrack: Multimodal Training Boosts RGB-X Video Object Trackers [88.72203975896558]
マルチモーダルセンシングから得られる知識を効果的に共有することが重要である。
異なるモダリティにまたがる類似のサンプルは、他のものよりも多くの知識を共有できる。
提案手法は,現在のSOTAよりも平均+3%精度が向上したRGB-Xトラッカーである。
論文 参考訳(メタデータ) (2024-05-28T03:00:58Z) - CRUD-RAG: A Comprehensive Chinese Benchmark for Retrieval-Augmented Generation of Large Language Models [49.16989035566899]
Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)の能力を高める技術である。
本稿では,大規模かつ包括的なベンチマークを構築し,様々なRAGアプリケーションシナリオにおけるRAGシステムのすべてのコンポーネントを評価する。
論文 参考訳(メタデータ) (2024-01-30T14:25:32Z) - Measuring Re-identification Risk [72.6715574626418]
コンパクトなユーザ表現における再識別リスクを測定するための新しい理論的枠組みを提案する。
我々のフレームワークは、攻撃者がその表現からユーザのアイデンティティを取得できる確率を正式に制限します。
当社のフレームワークが、関心に基づく広告のためのChromeのトピックAPIのような、重要な現実世界のアプリケーションをモデル化するのに十分な一般性を示している。
論文 参考訳(メタデータ) (2023-04-12T16:27:36Z) - Versatile User Identification in Extended Reality using Pretrained Similarity-Learning [16.356961801884562]
類似性学習モデルを開発し、“Who Is Alyx?”データセットで事前学習する。
従来の分類学習ベースラインと比較して,本モデルは優れた性能を示す。
本手法は,実運用XRシステムにおける事前学習した動きに基づく識別モデルの容易な統合方法である。
論文 参考訳(メタデータ) (2023-02-15T08:26:24Z) - Finding Facial Forgery Artifacts with Parts-Based Detectors [73.08584805913813]
顔の個々の部分に焦点を絞った一連の偽造検知システムを設計する。
これらの検出器を用いて、FaceForensics++、Celeb-DF、Facebook Deepfake Detection Challengeデータセットの詳細な実験分析を行う。
論文 参考訳(メタデータ) (2021-09-21T16:18:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。