論文の概要: Understanding the Use of a Large Language Model-Powered Guide to Make Virtual Reality Accessible for Blind and Low Vision People
- arxiv url: http://arxiv.org/abs/2603.09964v1
- Date: Tue, 10 Mar 2026 17:56:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:24.521977
- Title: Understanding the Use of a Large Language Model-Powered Guide to Make Virtual Reality Accessible for Blind and Low Vision People
- Title(参考訳): 視覚障害者のバーチャルリアリティアクセシブル化のための大規模言語モデル駆動ガイドの利用法
- Authors: Jazmin Collins, Sharon Y Lin, Tianqi Liu, Andrea Stevenson Won, Shiri Azenkot,
- Abstract要約: ソーシャルバーチャルリアリティ(VR)のための大規模言語モデル(LLM)を利用したガイドを開発した。
我々は,視覚障害者16名を対象に,仮想環境における視覚障害者16名を対象に,フェデレートを他のユーザとして用いた。
その結果,参加者は単独でガイドをツールとして扱ったが,他の参加者と相性が良いことがわかった。
- 参考スコア(独自算出の注目度): 17.62268629374374
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As social virtual reality (VR) grows more popular, addressing accessibility for blind and low vision (BLV) users is increasingly critical. Researchers have proposed an AI "sighted guide" to help users navigate VR and answer their questions, but it has not been studied with users. To address this gap, we developed a large language model (LLM)-powered guide and studied its use with 16 BLV participants in virtual environments with confederates posing as other users. We found that when alone, participants treated the guide as a tool, but treated it companionably around others, giving it nicknames, rationalizing its mistakes with its appearance, and encouraging confederate-guide interaction. Our work furthers understanding of guides as a versatile method for VR accessibility and presents design recommendations for future guides.
- Abstract(参考訳): ソーシャルバーチャルリアリティ(VR)の普及に伴い、視覚障害者(BLV)のアクセシビリティに対処することがますます重要になっている。
研究者は、ユーザーがVRをナビゲートして質問に答えるのを助けるAI"監視ガイド"を提案したが、ユーザーとの研究は行われていない。
このギャップに対処するため,我々は大規模言語モデル(LLM)を用いたガイドを開発し,仮想環境における16人のBLV参加者に対して,他のユーザを装いながらその使用について検討した。
参加者は単独でガイドを道具として扱ったが、他の参加者と相性が良く、あだ名を与え、その外見で誤りを合理化し、連帯ガイドの相互作用を奨励した。
我々の研究は、VRアクセシビリティーのための汎用的な方法としてのガイドの理解を深め、将来のガイドの設計勧告を提示する。
関連論文リスト
- Probing the Gaps in ChatGPT Live Video Chat for Real-World Assistance for People who are Blind or Visually Impaired [10.648018999640758]
視力障害8例(BVI)を主訴に来院した。
この結果から,現在のライブビデオAIは静的なシーンのガイダンスや回答を効果的に提供するが,ダイナミックな状況において必要不可欠なライブ記述の提供には不十分であることが示唆された。
我々は、実世界の利用に付加的なセンシング機能を導入することを含む、補助的なビデオAIエージェントへの影響について論じる。
論文 参考訳(メタデータ) (2025-08-05T16:59:02Z) - Exploring Context-aware and LLM-driven Locomotion for Immersive Virtual Reality [8.469329222500726]
大規模言語モデル(LLM)を利用した新しい移動法を提案する。
制御器を用いたテレポーテーション,音声によるステアリング,言語モデルによるアプローチの3つの方法を評価する。
以上の結果から, LLM駆動の移動は, 確立された方法と比較して, ユーザビリティ, 存在, サイバーシックネスのスコアが同等であることが示唆された。
論文 参考訳(メタデータ) (2025-04-24T07:48:09Z) - DWIM: Towards Tool-aware Visual Reasoning via Discrepancy-aware Workflow Generation & Instruct-Masking Tuning [57.285435980459205]
構成的視覚的推論アプローチは、エンド・ツー・エンドのVR手法よりも効果的な戦略として期待されている。
DWIM: ツールの使用状況を評価し, より訓練に有効である抽出を行う, 離散性を考慮したトレーニング生成手法を提案する。
Instruct-Masking fine-tuning — モデルに効果的なアクションをクローンすることのみをガイドし、より実用的なソリューションの生成を可能にする。
論文 参考訳(メタデータ) (2025-03-25T01:57:59Z) - Generating Contextually-Relevant Navigation Instructions for Blind and Low Vision People [9.503205949175966]
不慣れな環境をナビゲートすることは、盲目と低視(BLV)の個人にとって大きな課題となる。
キッチンを探索したり、屋外でナビゲートしたりするなど、さまざまなシナリオで画像と目標のデータセットを構築します。
論文 参考訳(メタデータ) (2024-07-11T06:40:36Z) - Learning High-Quality Navigation and Zooming on Omnidirectional Images in Virtual Reality [37.564863636844905]
我々は,VRナビゲーションにおける視覚的明瞭度を高めるために,OmniVRと呼ばれる新しいシステムを提案する。
当社のシステムでは,VRに関心のある対象を,ユーザーが自由に見つけてズームインすることができる。
論文 参考訳(メタデータ) (2024-05-01T07:08:24Z) - Human-oriented Representation Learning for Robotic Manipulation [64.59499047836637]
人間は本質的に、操作作業において環境を効率的に探索し、相互作用することを可能にする、一般化可能な視覚表現を持っている。
我々は、このアイデアを、事前訓練された視覚エンコーダの上に、人間指向のマルチタスク微調整のレンズを通してフォーマル化する。
我々のタスクフュージョンデコーダは、下流操作ポリシー学習のための最先端の3つのビジュアルエンコーダの表現を一貫して改善する。
論文 参考訳(メタデータ) (2023-10-04T17:59:38Z) - Force-Aware Interface via Electromyography for Natural VR/AR Interaction [69.1332992637271]
我々はVR/ARにおける自然的および直感的な力入力のための学習ベースのニューラルネットワークを設計する。
我々は,3.3%の平均誤差で指の力量をリアルタイムでデコードし,キャリブレーションの少ない新規ユーザに一般化できることを実証した。
今後のVR/ARにおける、より現実的な物理性に向けた研究を進めるために、我々の研究成果を期待する。
論文 参考訳(メタデータ) (2022-10-03T20:51:25Z) - Learning Effect of Lay People in Gesture-Based Locomotion in Virtual
Reality [81.5101473684021]
最も有望な方法はジェスチャーベースであり、追加のハンドヘルドハードウェアを必要としない。
最近の研究は、主に異なるロコモーションテクニックのユーザの好みとパフォーマンスに焦点を当てている。
本研究は,VRにおける手のジェスチャーに基づくロコモーションシステムへの適応の迅速さについて検討した。
論文 参考訳(メタデータ) (2022-06-16T10:44:16Z) - A Systematic Review on Interactive Virtual Reality Laboratory [1.3999481573773072]
本研究は,VRを用いた品質教育における作業の理解を目的としたものである。
バーチャルリアリティーを教育に取り入れることで、学生はより効果的に学習できるようになる。
このことは、学習におけるVR利用の大幅な拡大の重要性を強調している。
論文 参考訳(メタデータ) (2022-03-26T07:16:01Z) - Reinforcement Learning with Videos: Combining Offline Observations with
Interaction [151.73346150068866]
強化学習は、ロボットが経験からスキルを得るための強力なフレームワークである。
人間のビデオは、広くて興味深い体験のソースとしてすぐに手に入る。
ビデオによる強化学習のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-12T17:15:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。