論文の概要: From Perception to Protection: A Developer-Centered Study of Security and Privacy Threats in Extended Reality (XR)
- arxiv url: http://arxiv.org/abs/2509.06368v1
- Date: Mon, 08 Sep 2025 06:48:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.992647
- Title: From Perception to Protection: A Developer-Centered Study of Security and Privacy Threats in Extended Reality (XR)
- Title(参考訳): 認識から保護へ:拡張現実(XR)におけるセキュリティとプライバシの脅威に関する開発者中心の研究
- Authors: Kunlin Cai, Jinghuai Zhang, Ying Li, Zhiyuan Wang, Xun Chen, Tianshi Li, Yuan Tian,
- Abstract要約: XRは基本的に異なるセキュリティとプライバシ(S&P)の課題を導入している。
XRアプリケーションの主要なアーキテクトとして、開発者は新しい脅威に対処する上で重要な役割を果たす。
この問題の重要性はますます高まっているが、開発者の視点からXR S&Pを調査する深遠で脅威に敏感な研究が不足している。
- 参考スコア(独自算出の注目度): 26.70867381711159
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The immersive nature of XR introduces a fundamentally different set of security and privacy (S&P) challenges due to the unprecedented user interactions and data collection that traditional paradigms struggle to mitigate. As the primary architects of XR applications, developers play a critical role in addressing novel threats. However, to effectively support developers, we must first understand how they perceive and respond to different threats. Despite the growing importance of this issue, there is a lack of in-depth, threat-aware studies that examine XR S&P from the developers' perspective. To fill this gap, we interviewed 23 professional XR developers with a focus on emerging threats in XR. Our study addresses two research questions aiming to uncover existing problems in XR development and identify actionable paths forward. By examining developers' perceptions of S&P threats, we found that: (1) XR development decisions (e.g., rich sensor data collection, user-generated content interfaces) are closely tied to and can amplify S&P threats, yet developers are often unaware of these risks, resulting in cognitive biases in threat perception; and (2) limitations in existing mitigation methods, combined with insufficient strategic, technical, and communication support, undermine developers' motivation, awareness, and ability to effectively address these threats. Based on these findings, we propose actionable and stakeholder-aware recommendations to improve XR S&P throughout the XR development process. This work represents the first effort to undertake a threat-aware, developer-centered study in the XR domain -- an area where the immersive, data-rich nature of the XR technology introduces distinctive challenges.
- Abstract(参考訳): XRの没入性は、従来のパラダイムが緩和に苦しむ前例のないユーザインタラクションとデータ収集のために、根本的に異なるセキュリティとプライバシ(S&P)の課題をもたらす。
XRアプリケーションの主要なアーキテクトとして、開発者は新しい脅威に対処する上で重要な役割を果たす。
しかし、開発者を効果的にサポートするためには、まず彼らがどのように異なる脅威を理解し、反応するかを理解しなければなりません。
この問題の重要性はますます高まっているが、開発者の視点からXR S&Pを調査する深遠で脅威に敏感な研究が不足している。
このギャップを埋めるために、私たちは、XRの新たな脅威に焦点を当てた、プロのXR開発者23人にインタビューした。
本研究は,XR開発における既存の問題を明らかにすることを目的とした2つの研究課題に対処する。
開発者によるS&P脅威に対する認識を調べることで,(1) XR開発決定(リッチセンサデータ収集,ユーザ生成コンテンツインターフェースなど)は,S&P脅威と密接な結びつき,増幅可能であるが,開発者は多くの場合,これらのリスクを意識せず,脅威認識の認知バイアスを生じさせる。
これらの知見に基づき、我々はXR開発プロセス全体を通して、XR S&Pを改善するための行動可能かつステークホルダー対応のレコメンデーションを提案する。
この研究は、XRテクノロジーの没入的でデータ豊富な性質が独特な課題をもたらす領域であるXRドメインにおいて、脅威を意識した開発者中心の研究を初めて実施する試みである。
関連論文リスト
- Multi-Agent Risks from Advanced AI [90.74347101431474]
先進的なAIのマルチエージェントシステムは、新規で未発見のリスクを生じさせる。
エージェントのインセンティブに基づく3つの重要な障害モードと7つの重要なリスク要因を同定する。
各リスクのいくつかの重要な事例と、それらを緩和するための有望な方向性を強調します。
論文 参考訳(メタデータ) (2025-02-19T23:03:21Z) - Towards Trustworthy Retrieval Augmented Generation for Large Language Models: A Survey [92.36487127683053]
Retrieval-Augmented Generation (RAG)は、AIGC(AIGC)の課題に対処するために設計された高度な技術である。
RAGは信頼性と最新の外部知識を提供し、幻覚を減らし、幅広いタスクで関連するコンテキストを保証する。
RAGの成功と可能性にもかかわらず、最近の研究により、RAGパラダイムはプライバシーの懸念、敵対的攻撃、説明責任の問題など、新たなリスクももたらしていることが示されている。
論文 参考訳(メタデータ) (2025-02-08T06:50:47Z) - SoK: On Closing the Applicability Gap in Automated Vulnerability Detection [0.18846515534317265]
自動脆弱性検出(AVD)は、脆弱性を特定するためにソースコードを自律的に解析することを目的としている。
現在のAVD研究はコアコンポーネントにまたがってどのように分散されているのか、将来の研究対象はソフトウェア開発全体を通してのAVDの実践的適用性のギャップを埋めるための重要な領域であるべきなのか、という2つの主要な研究課題に対処する。
タスクの定式化と粒度,入力プログラム言語と表現,検出アプローチとキーソリューション,評価指標とデータセット,報告パフォーマンスの5つのコアコンポーネントを対象に,79以上のAVD記事と17の実証的研究を体系化する。
論文 参考訳(メタデータ) (2024-12-15T14:01:41Z) - Controlling Risk of Retrieval-augmented Generation: A Counterfactual Prompting Framework [77.45983464131977]
我々は、RAGモデルの予測が誤りであり、現実のアプリケーションにおいて制御不能なリスクをもたらす可能性がどの程度あるかに焦点を当てる。
本研究は,RAGの予測に影響を及ぼす2つの重要な潜伏要因を明らかにする。
我々は,これらの要因をモデルに誘導し,その応答に与える影響を解析する,反実的プロンプトフレームワークを開発した。
論文 参考訳(メタデータ) (2024-09-24T14:52:14Z) - Attack Atlas: A Practitioner's Perspective on Challenges and Pitfalls in Red Teaming GenAI [52.138044013005]
生成AI、特に大規模言語モデル(LLM)は、製品アプリケーションにますます統合される。
新たな攻撃面と脆弱性が出現し、自然言語やマルチモーダルシステムにおける敵の脅威に焦点を当てる。
レッドチーム(英語版)はこれらのシステムの弱点を積極的に識別する上で重要となり、ブルーチーム(英語版)はそのような敵の攻撃から保護する。
この研究は、生成AIシステムの保護のための学術的な洞察と実践的なセキュリティ対策のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-09-23T10:18:10Z) - The Reasoning Under Uncertainty Trap: A Structural AI Risk [0.0]
RUUを人間と機械の両方にとって困難なものにしているのは、レポートにある。
この誤用リスクが、基盤となる構造的リスクのネットワークとどのように結びつくのかを詳述する。
論文 参考訳(メタデータ) (2024-01-29T17:16:57Z) - On the Security Risks of Knowledge Graph Reasoning [71.64027889145261]
我々は、敵の目標、知識、攻撃ベクトルに応じて、KGRに対するセキュリティ脅威を体系化する。
我々は、このような脅威をインスタンス化する新しいタイプの攻撃であるROARを提示する。
ROARに対する潜在的な対策として,潜在的に有毒な知識のフィルタリングや,対向的な拡張クエリによるトレーニングについて検討する。
論文 参考訳(メタデータ) (2023-05-03T18:47:42Z) - Deep Learning for Insider Threat Detection: Review, Challenges and
Opportunities [22.976960488191505]
高度なディープラーニング技術は、複雑なデータからエンドツーエンドモデルを学ぶための新しいパラダイムを提供する。
既存の研究では、従来の機械学習アルゴリズムと比較して、ディープラーニングモデルはインサイダー脅威検出のパフォーマンスを向上させることが示されている。
インサイダー脅威検出タスクをさらに進めるためのディープラーニングの適用は、ラベル付きデータの欠如やアダプティブアタックなど、いくつかの制限に直面している。
論文 参考訳(メタデータ) (2020-05-25T22:48:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。