論文の概要: PrivateXR: Defending Privacy Attacks in Extended Reality Through Explainable AI-Guided Differential Privacy
- arxiv url: http://arxiv.org/abs/2512.16851v1
- Date: Thu, 18 Dec 2025 18:23:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:32.205136
- Title: PrivateXR: Defending Privacy Attacks in Extended Reality Through Explainable AI-Guided Differential Privacy
- Title(参考訳): PrivateXR: 説明可能なAIによる差分プライバシーによる拡張現実におけるプライバシー攻撃の回避
- Authors: Ripan Kumar Kundu, Istiak Ahmed, Khaza Anuarul Hoque,
- Abstract要約: 本稿では,説明可能なAI(XAI)とDP対応のプライバシ保護機構を組み合わせて,プライバシ攻撃を防御する新しいフレームワークを提案する。
具体的には、ポストホックな説明を活用してAI XRモデルの最も影響力のある特徴を特定し、推論中にDPを選択的に適用する。
提案手法は,サイバーシック作業においてMIAとRDAの成功率を最大43%,RDAが39%削減することを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The convergence of artificial AI and XR technologies (AI XR) promises innovative applications across many domains. However, the sensitive nature of data (e.g., eye-tracking) used in these systems raises significant privacy concerns, as adversaries can exploit these data and models to infer and leak personal information through membership inference attacks (MIA) and re-identification (RDA) with a high success rate. Researchers have proposed various techniques to mitigate such privacy attacks, including differential privacy (DP). However, AI XR datasets often contain numerous features, and applying DP uniformly can introduce unnecessary noise to less relevant features, degrade model accuracy, and increase inference time, limiting real-time XR deployment. Motivated by this, we propose a novel framework combining explainable AI (XAI) and DP-enabled privacy-preserving mechanisms to defend against privacy attacks. Specifically, we leverage post-hoc explanations to identify the most influential features in AI XR models and selectively apply DP to those features during inference. We evaluate our XAI-guided DP approach on three state-of-the-art AI XR models and three datasets: cybersickness, emotion, and activity classification. Our results show that the proposed method reduces MIA and RDA success rates by up to 43% and 39%, respectively, for cybersickness tasks while preserving model utility with up to 97% accuracy using Transformer models. Furthermore, it improves inference time by up to ~2x compared to traditional DP approaches. To demonstrate practicality, we deploy the XAI-guided DP AI XR models on an HTC VIVE Pro headset and develop a user interface (UI), namely PrivateXR, allowing users to adjust privacy levels (e.g., low, medium, high) while receiving real-time task predictions, protecting user privacy during XR gameplay.
- Abstract(参考訳): 人工知能とXR技術(AI XR)の収束は、多くの領域にわたる革新的な応用を約束する。
しかし、これらのシステムで使用されるデータ(例えば、視線追跡)の繊細な性質は、これらのデータとモデルを悪用して、メンバーシップ推論攻撃(MIA)や再識別(RDA)を通じて個人情報を高い成功率で推測し、リークすることができるため、重大なプライバシー上の懸念を引き起こす。
研究者は、差分プライバシー(DP)を含む、このようなプライバシー攻撃を緩和する様々な手法を提案している。
しかし、AI XRデータセットには多数の機能が含まれていることが多く、DPを適用することで、関係の少ない機能に不要なノイズを導入し、モデルの精度を低下させ、推論時間を増やし、リアルタイムXRデプロイメントを制限できる。
そこで我々は,説明可能なAI(XAI)とDP対応のプライバシ保護機構を組み合わせて,プライバシ攻撃を防御する新しいフレームワークを提案する。
具体的には、ポストホックな説明を活用してAI XRモデルの最も影響力のある特徴を特定し、推論中にDPを選択的に適用する。
我々は3つの最先端AI XRモデルと3つのデータセット(サイバーシックネス、感情、活動分類)に対して、XAI誘導DPアプローチを評価した。
提案手法は,トランスフォーマーモデルを用いてモデルユーティリティを最大97%の精度で保ちながら,サイバーシックなタスクに対して,MIAとRDAの成功率を最大43%,RDAが39%削減することを示した。
さらに、従来のDPアプローチと比較して、推論時間を最大2倍改善する。
実用性を示すため,HTC VIVE ProヘッドセットにXAI誘導DP AI XRモデルを配置し,ユーザインターフェース(UI)であるPrivateXRを開発する。
関連論文リスト
- Adversary-Aware Private Inference over Wireless Channels [51.93574339176914]
ワイヤレスエッジデバイスにおけるAIベースのセンシングは、人工知能(AI)アプリケーションを大幅に強化する可能性がある。
機密性の高い個人情報は敵によって再構築できるため、プライバシー侵害のリスクを軽減するために特徴の変換が必要である。
本稿では,デバイスがモデルサーバに送信する前に抽出した特徴の変換を適用する,プライバシ保護型AIベースセンシングのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-23T13:02:14Z) - ALPINE: A Lightweight and Adaptive Privacy-Decision Agent Framework for Dynamic Edge Crowdsensing [34.752121524751466]
ALPINEは軽量で適応的なフレームワークで、端末デバイスがリアルタイムに差分プライバシーレベルを調整できるようにする。
環境リスク評価に基づいて、プライバシゲイン、データユーティリティ、エネルギーコストのバランスをとる報酬関数を設計する。
協調リスクモデルと事前訓練されたTD3ベースのエージェントの両方が、低オーバーヘッドデプロイメント用に設計されている。
論文 参考訳(メタデータ) (2025-10-20T05:03:25Z) - AgentDAM: Privacy Leakage Evaluation for Autonomous Web Agents [66.29263282311258]
我々は、AIウェブナビゲーションエージェントがデータ最小化のプライバシー原則に従うかどうかを測定する新しいベンチマークAgentDAMを紹介する。
我々のベンチマークは、現実的なWebインタラクションシナリオをエンドツーエンドでシミュレートし、既存のWebナビゲーションエージェントに適応する。
論文 参考訳(メタデータ) (2025-03-12T19:30:31Z) - Privacy Constrained Fairness Estimation for Decision Trees [2.9906966931843093]
任意のAIモデルの公平さを測定するには、データセット内の個人の敏感な属性が必要である。
プライバシ・アウェア・フェアネス・オブ・ルール(PAFER)と呼ばれる新しい手法を提案する。
提案手法は,ラプラシアン機構を用いて,データセット内の個人のプライバシーを高い確度で保証しつつ,低い誤差でSPを推定できることを示す。
論文 参考訳(メタデータ) (2023-12-13T14:54:48Z) - Reconciling AI Performance and Data Reconstruction Resilience for
Medical Imaging [52.578054703818125]
人工知能(AI)モデルは、トレーニングデータの情報漏洩に対して脆弱であり、非常に敏感である。
差別化プライバシ(DP)は、定量的なプライバシー予算を設定することで、これらの感受性を回避することを目的としている。
非常に大きなプライバシ予算を使用することで、リコンストラクション攻撃は不可能であり、パフォーマンスの低下は無視可能であることを示す。
論文 参考訳(メタデータ) (2023-12-05T12:21:30Z) - Shielding the Unseen: Privacy Protection through Poisoning NeRF with
Spatial Deformation [59.302770084115814]
本稿では,Neural Radiance Fields(NeRF)モデルの生成機能に対して,ユーザのプライバシを保護する革新的な手法を提案する。
我々の新しい中毒攻撃法は、人間の目では認識できないが、NeRFが正確に3Dシーンを再構築する能力を損なうのに十分強力である観察ビューの変化を誘発する。
我々は、高品質の画像を含む29の現実世界シーンからなる2つの共通のNeRFベンチマークデータセットに対して、我々のアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2023-10-04T19:35:56Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Discriminative Adversarial Privacy: Balancing Accuracy and Membership
Privacy in Neural Networks [7.0895962209555465]
DAP(Dariminative Adversarial Privacy)は、モデルの性能、速度、プライバシのバランスを達成するために設計された学習技術である。
DAPは、MIAの誤差を最大化しながら予測誤差を最小化できる新しい損失関数に基づく敵の訓練に依存している。
さらに、パフォーマンスプライバシのトレードオフを捉えるために、AOP(Acuracy Over Privacy)と呼ばれる新しいメトリクスを紹介します。
論文 参考訳(メタデータ) (2023-06-05T17:25:45Z) - Joint Sensing, Communication, and AI: A Trifecta for Resilient THz User
Experiences [118.91584633024907]
テラヘルツ(THz)無線システムに対する拡張現実(XR)体験を最適化するために、新しい共同センシング、通信、人工知能(AI)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-29T00:39:50Z) - Mitigating Query-Flooding Parameter Duplication Attack on Regression
Models with High-Dimensional Gaussian Mechanism [12.017509695576377]
差分プライバシー(DP)はこの攻撃を緩和する有望な手法と考えられている。
提案手法では,クエリフローディングパラメータ重複(QPD)攻撃によってモデル情報を推測できることを示す。
未承認情報開示を防止するための新しい高次元ガウス(HDG)機構を提案する。
論文 参考訳(メタデータ) (2020-02-06T01:47:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。