論文の概要: Adversarial VR: An Open-Source Testbed for Evaluating Adversarial Robustness of VR Cybersickness Detection and Mitigation
- arxiv url: http://arxiv.org/abs/2512.17029v1
- Date: Thu, 18 Dec 2025 19:45:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.153595
- Title: Adversarial VR: An Open-Source Testbed for Evaluating Adversarial Robustness of VR Cybersickness Detection and Mitigation
- Title(参考訳): Adversarial VR:VRサイバーシック検出と緩和の逆性ロバスト性を評価するためのオープンソースのテストベッド
- Authors: Istiak Ahmed, Ripan Kumar Kundu, Khaza Anuarul Hoque,
- Abstract要約: Adrial-VRは、DLベースのサイバーシック検出および敵の条件下での緩和戦略を評価するための、新しいリアルタイムVRテストベッドである。
MI-FGSM(英語版)、PGD(英語版)、C&W(英語版)の3つのSOTA攻撃を組み込んだ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep learning (DL)-based automated cybersickness detection methods, along with adaptive mitigation techniques, can enhance user comfort and interaction. However, recent studies show that these DL-based systems are susceptible to adversarial attacks; small perturbations to sensor inputs can degrade model performance, trigger incorrect mitigation, and disrupt the user's immersive experience (UIX). Additionally, there is a lack of dedicated open-source testbeds that evaluate the robustness of these systems under adversarial conditions, limiting the ability to assess their real-world effectiveness. To address this gap, this paper introduces Adversarial-VR, a novel real-time VR testbed for evaluating DL-based cybersickness detection and mitigation strategies under adversarial conditions. Developed in Unity, the testbed integrates two state-of-the-art (SOTA) DL models: DeepTCN and Transformer, which are trained on the open-source MazeSick dataset, for real-time cybersickness severity detection and applies a dynamic visual tunneling mechanism that adjusts the field-of-view based on model outputs. To assess robustness, we incorporate three SOTA adversarial attacks: MI-FGSM, PGD, and C&W, which successfully prevent cybersickness mitigation by fooling DL-based cybersickness models' outcomes. We implement these attacks using a testbed with a custom-built VR Maze simulation and an HTC Vive Pro Eye headset, and we open-source our implementation for widespread adoption by VR developers and researchers. Results show that these adversarial attacks are capable of successfully fooling the system. For instance, the C&W attack results in a $5.94x decrease in accuracy for the Transformer-based cybersickness model compared to the accuracy without the attack.
- Abstract(参考訳): ディープラーニング(DL)に基づく自動サイバーシック検出手法は、適応緩和技術とともに、ユーザの快適さとインタラクションを高める。
センサ入力に対する小さな摂動は、モデル性能を低下させ、誤った緩和を誘発し、ユーザの没入感を損なう(UIX)。
さらに、敵対的な条件下でこれらのシステムの堅牢性を評価し、実際の有効性を評価する能力を制限する、専用のオープンソースのテストベッドが欠如している。
このギャップに対処するため,本研究では,DLベースのサイバーシック検出・緩和戦略を評価するための,新しいリアルタイムVRテストベッドであるAdversarial-VRを紹介する。
オープンソースのMazeSickデータセットでトレーニングされたDeepTCNとTransformerという,2つの最先端(SOTA)DLモデルを統合して,リアルタイムのサイバーシック検出を実現している。
堅牢性を評価するために,MI-FGSM,PGD,C&Wの3つのSOTA攻撃を組み込んだ。
我々は、カスタムビルドされたVR MazeシミュレーションとHTC Vive Pro Eyeヘッドセットを使ったテストベッドを使用してこれらの攻撃を実装し、VR開発者や研究者が広く採用するための実装をオープンソース化した。
その結果,これらの攻撃はシステムをうまく騙すことができることがわかった。
例えば、C&W攻撃は、攻撃のない精度と比較して、Transformerベースのサイバーシックネスモデルの精度が5.94倍に低下する。
関連論文リスト
- False Reality: Uncovering Sensor-induced Human-VR Interaction Vulnerability [15.246996684892348]
False Realityは、ソフトウェアへのアクセスや修正を必要とせず、VRデバイスに対する新たな脅威だ。
我々はこれらの脅威を攻撃経路の枠組みを通じて形式化し、3つの代表的な経路を検証する。
今後のVRシステムのセキュリティとレジリエンスを高めるための貴重な洞察を提供する。
論文 参考訳(メタデータ) (2025-08-11T14:47:23Z) - Securing Virtual Reality Experiences: Unveiling and Tackling Cybersickness Attacks with Explainable AI [2.076342899890871]
我々は、サイバーシックネス攻撃(サイバーシックネス攻撃)と呼ばれる新しいタイプのVR攻撃を提示し、サイバーシックネス緩和の引き金となる。
本稿では,この攻撃を検出するための,XAI誘導型サイバーシック攻撃検出フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-17T17:49:51Z) - Towards Consumer-Grade Cybersickness Prediction: Multi-Model Alignment for Real-Time Vision-Only Inference [3.4667973471411853]
サイバーシックネスは没入型バーチャルリアリティ(VR)の普及の大きな障害である
我々は、パーソナライズされたサイバーシックネス予測のためのスケーラブルでデプロイ可能なフレームワークを提案する。
当社のフレームワークは,コンシューマレベルのVRプラットフォームとの統合に理想的なリアルタイムアプリケーションをサポートしています。
論文 参考訳(メタデータ) (2025-01-02T11:41:43Z) - FaultGuard: A Generative Approach to Resilient Fault Prediction in Smart Electrical Grids [53.2306792009435]
FaultGuardは、障害タイプとゾーン分類のための最初のフレームワークであり、敵攻撃に耐性がある。
本稿では,ロバスト性を高めるために,低複雑性故障予測モデルとオンライン逆行訓練手法を提案する。
本モデルでは,耐故障予測ベンチマークの最先端を最大0.958の精度で上回っている。
論文 参考訳(メタデータ) (2024-03-26T08:51:23Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - LiteVR: Interpretable and Lightweight Cybersickness Detection using
Explainable AI [1.1470070927586016]
サイバーシックネス(Cybersickness)は、仮想現実(VR)ユーザーエクスペリエンスに関連する一般的な障害である。
我々はサイバーシック検出のための説明可能な人工知能(XAI)ベースのフレームワーク LiteVR を提案する。
論文 参考訳(メタデータ) (2023-02-05T21:51:12Z) - VR-LENS: Super Learning-based Cybersickness Detection and Explainable
AI-Guided Deployment in Virtual Reality [1.9642496463491053]
本研究は、サイバーシック検出MLモデルを開発するための、説明可能な人工知能(XAI)ベースのフレームワークであるVR-LENSを提案する。
我々はまず,サイバーシック検出のための新しいスーパーラーニングベースのアンサンブルMLモデルを開発した。
本手法は, 眼球運動, プレイヤー位置, ガルバニックスキン/ハートレート応答を, 統合センサ, ゲームプレイ, 生体生理学的データセットの最も重要な特徴として同定した。
論文 参考訳(メタデータ) (2023-02-03T20:15:51Z) - Self-Supervised Masked Convolutional Transformer Block for Anomaly
Detection [122.4894940892536]
本稿では, 自己監督型マスク型畳み込み変圧器ブロック (SSMCTB) について述べる。
本研究では,従来の自己教師型予測畳み込み抑止ブロック(SSPCAB)を3次元マスク付き畳み込み層,チャンネルワイドアテンション用トランスフォーマー,およびハマーロスに基づく新たな自己教師型目標を用いて拡張する。
論文 参考訳(メタデータ) (2022-09-25T04:56:10Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。