論文の概要: Exploring User Acceptance and Concerns toward LLM-powered Conversational Agents in Immersive Extended Reality
- arxiv url: http://arxiv.org/abs/2512.15343v1
- Date: Wed, 17 Dec 2025 11:41:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:26.965779
- Title: Exploring User Acceptance and Concerns toward LLM-powered Conversational Agents in Immersive Extended Reality
- Title(参考訳): 没入型拡張現実感におけるLLMを活用した会話エージェントのユーザアクセプタンスと関心
- Authors: Efe Bozkir, Enkelejda Kasneci,
- Abstract要約: 拡張現実(XR)コミュニティは、ユーザエクスペリエンスとタスク効率を向上させるために、大きな言語モデル(LLM)を統合することを模索している。
ユーザは一般的にこれらの技術を受け入れるが、セキュリティ、プライバシ、社会的影響、信頼に関する懸念を表明している。
我々の研究結果は、日常的な生成AIの使用がより受け入れられることと結びついているため、親しみが重要な役割を担っていることを示唆している。
- 参考スコア(独自算出の注目度): 16.53846784748676
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid development of generative artificial intelligence (AI) and large language models (LLMs), and the availability of services that make them accessible, have led the general public to begin incorporating them into everyday life. The extended reality (XR) community has also sought to integrate LLMs, particularly in the form of conversational agents, to enhance user experience and task efficiency. When interacting with such conversational agents, users may easily disclose sensitive information due to the naturalistic flow of the conversations, and combining such conversational data with fine-grained sensor data may lead to novel privacy issues. To address these issues, a user-centric understanding of technology acceptance and concerns is essential. Therefore, to this end, we conducted a large-scale crowdsourcing study with 1036 participants, examining user decision-making processes regarding LLM-powered conversational agents in XR, across factors of XR setting type, speech interaction type, and data processing location. We found that while users generally accept these technologies, they express concerns related to security, privacy, social implications, and trust. Our results suggest that familiarity plays a crucial role, as daily generative AI use is associated with greater acceptance. In contrast, previous ownership of XR devices is linked to less acceptance, possibly due to existing familiarity with the settings. We also found that men report higher acceptance with fewer concerns than women. Regarding data type sensitivity, location data elicited the most significant concern, while body temperature and virtual object states were considered least sensitive. Overall, our study highlights the importance of practitioners effectively communicating their measures to users, who may remain distrustful. We conclude with implications and recommendations for LLM-powered XR.
- Abstract(参考訳): 生成的人工知能(AI)と大規模言語モデル(LLM)の急速な発展と、それらにアクセス可能なサービスの提供により、一般大衆はそれらを日々の生活に取り入れ始めた。
拡張現実(XR)コミュニティはまた、ユーザエクスペリエンスとタスク効率を向上させるために、特に会話エージェントの形でLLMを統合することを模索している。
このような対話エージェントと対話する場合、会話の自然な流れによるセンシティブな情報の開示が容易になり、そのような会話データをきめ細かいセンサーデータと組み合わせることで、新たなプライバシー問題が発生する可能性がある。
これらの問題に対処するためには、テクノロジーの受け入れと懸念に対するユーザ中心の理解が不可欠である。
そこで,1036名の参加者を対象に大規模なクラウドソーシング調査を行い,XR設定型,音声対話型,およびデータ処理位置の因子から,XRにおけるLLMによる会話エージェントに関するユーザの意思決定過程を検討した。
ユーザは一般的にこれらの技術を受け入れるが、セキュリティ、プライバシ、社会的影響、信頼に関する懸念を表現している。
我々の研究結果は、日常的な生成AIの使用がより受け入れられることと結びついているため、親しみが重要な役割を担っていることを示唆している。
対照的に、以前のXRデバイスのオーナシップは、おそらく設定に慣れ親しんだために、より受け入れの少ないものにリンクされている。
また,男性の方が女性よりも懸念度が低い傾向がみられた。
データ型感度に関して、位置データは最も重要な関心事であり、体温と仮想物体状態は最も感度が低いと考えられていた。
本研究は,不信感を抱いているユーザに対して,効果的に対応できる実践者の重要性を強調した。
我々はLSMを用いたXRの意義と勧告を結論付けている。
関連論文リスト
- Evaluating Social Acceptance of eXtended Reality (XR) Agent Technology: A User Study (Extended Version) [37.69303106863453]
本稿では,eXtended Reality(XR)エージェント技術の社会的受容性を評価するユーザスタディについて述べる。
このシステムは、モジュラーツールキットによって実現された仮想アバターとのユーザインタラクションを含む。
論文 参考訳(メタデータ) (2025-07-22T13:14:05Z) - PRIV-QA: Privacy-Preserving Question Answering for Cloud Large Language Models [10.050972891318324]
本稿では,ユーザと大規模言語モデル間のインタラクションにおいて,プライバシとセンシティブな情報を保護するためのプライバシ保護パイプラインを提案する。
プライバシを開放した最初の質問応答データセットであるSensitiveQAを構築した。
提案手法は,クラウド上でのLCMの応答品質を同時に保ちながら,ユーザ情報の事前確保を目的としたマルチステージ戦略を用いている。
論文 参考訳(メタデータ) (2025-02-19T09:17:07Z) - Evaluating Cultural and Social Awareness of LLM Web Agents [113.49968423990616]
CASAは,大規模言語モデルの文化的・社会的規範に対する感受性を評価するためのベンチマークである。
提案手法は,標準に違反するユーザクエリや観察を検知し,適切に応答するLLMエージェントの能力を評価する。
実験により、現在のLLMは非エージェント環境で大幅に性能が向上していることが示された。
論文 参考訳(メタデータ) (2024-10-30T17:35:44Z) - Multimodal Fusion with LLMs for Engagement Prediction in Natural Conversation [70.52558242336988]
我々は,不関心や混乱の兆候を検出することを目的として,言語的および非言語的手がかりを精査することにより,ダイアディック的相互作用における係り合いを予測することに焦点を当てた。
本研究では,カジュアルなダイアディック会話に携わる34人の参加者を対象に,各会話の最後に自己報告されたエンゲージメント評価を行うデータセットを収集する。
大規模言語モデル(LLMs)を用いた新たな融合戦略を導入し,複数行動モダリティをマルチモーダル・トランスクリプトに統合する。
論文 参考訳(メタデータ) (2024-09-13T18:28:12Z) - Embedding Large Language Models into Extended Reality: Opportunities and Challenges for Inclusion, Engagement, and Privacy [37.061999275101904]
我々は、それらをアバターに埋め込んだり、物語として含めることによって、XRで大きな言語モデルを使うことについて議論する。
ユーザがLLMを利用する空間に提供した情報と、得られた生体データを組み合わせることで、新たなプライバシー侵害につながるのではないか、と推測する。
論文 参考訳(メタデータ) (2024-02-06T11:19:40Z) - AntEval: Evaluation of Social Interaction Competencies in LLM-Driven
Agents [65.16893197330589]
大規模言語モデル(LLM)は、幅広いシナリオで人間の振る舞いを再現する能力を示した。
しかし、複雑なマルチ文字のソーシャルインタラクションを扱う能力については、まだ完全には研究されていない。
本稿では,新しいインタラクションフレームワークと評価手法を含むマルチエージェントインタラクション評価フレームワーク(AntEval)を紹介する。
論文 参考訳(メタデータ) (2024-01-12T11:18:00Z) - "It's a Fair Game", or Is It? Examining How Users Navigate Disclosure Risks and Benefits When Using LLM-Based Conversational Agents [27.480959048351973]
大規模言語モデル(LLM)ベースの会話エージェント(CA)の普及は、多くのプライバシー上の懸念を引き起こす。
実世界のChatGPT会話における機密情報開示を分析し,19名のLCMユーザを対象に半構造化インタビューを行った。
LLMベースのCAを使用する場合,ユーザは常に,プライバシやユーティリティ,利便性のトレードオフに直面しています。
論文 参考訳(メタデータ) (2023-09-20T21:34:36Z) - SPA: Verbal Interactions between Agents and Avatars in Shared Virtual
Environments using Propositional Planning [61.335252950832256]
SPA(Sense-Plan-Ask)は、仮想的な仮想環境において、仮想的な人間のようなエージェントとユーザアバターの間の言語的対話を生成する。
提案アルゴリズムは実行時コストを小さくし,自然言語通信を利用せずにエージェントよりも効率的に目標を達成できることが判明した。
論文 参考訳(メタデータ) (2020-02-08T23:15:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。