論文の概要: "We are at the mercy of others' opinion": Supporting Blind People in Recreational Window Shopping with AI-infused Technology
- arxiv url: http://arxiv.org/abs/2405.06611v1
- Date: Fri, 10 May 2024 17:15:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-13 15:08:38.953223
- Title: "We are at the mercy of others' opinion": Supporting Blind People in Recreational Window Shopping with AI-infused Technology
- Title(参考訳): 「我々は他人の意見に慈悲を抱いている」:AIを応用したレクリエーションウィンドウショッピングにおける盲人支援
- Authors: Rie Kamikubo, Hernisa Kacorri, Chieko Asakawa,
- Abstract要約: 我々は、視覚障害者がレクリエーション窓ショッピングに必要とする情報ニーズ、課題、そして現在のアプローチについて検討する。
プロモーション情報のプッシュ通知や、興味ある店舗のプル通知が求められていることがわかりました。
我々はこれらの知見を、既存の2つのAI注入支援アプリケーションのコンテキストにおいて、特定の情報モダリティとレンダリングに変換する。
- 参考スコア(独自算出の注目度): 14.159425426253577
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Engaging in recreational activities in public spaces poses challenges for blind people, often involving dependency on sighted help. Window shopping is a key recreational activity that remains inaccessible. In this paper, we investigate the information needs, challenges, and current approaches blind people have to recreational window shopping to inform the design of existing wayfinding and navigation technology for supporting blind shoppers in exploration and serendipitous discovery. We conduct a formative study with a total of 18 blind participants that include both focus groups (N=8) and interviews for requirements analysis (N=10). We find that there is a desire for push notifications of promotional information and pull notifications about shops of interest such as the targeted audience of a brand. Information about obstacles and points-of-interest required customization depending on one's mobility aid as well as presence of a crowd, children, and wheelchair users. We translate these findings into specific information modalities and rendering in the context of two existing AI-infused assistive applications: NavCog (a turn-by-turn navigation app) and Cabot (a navigation robot).
- Abstract(参考訳): 公共空間におけるレクリエーション活動の増大は、視覚障害者にとっての課題となり、しばしば視覚的援助に依存している。
ウィンドウショッピングは、アクセス不可能な重要なレクリエーション活動である。
本稿では,視覚障害者の探索とセレンディピティーな発見を支援するために,既存の道路工事・ナビゲーション技術の設計を通知するために,視覚障害者がレクリエーション用ウィンドウショッピングに必要とする情報ニーズ,課題,現在のアプローチについて検討する。
対象者18名(N=8)と要件分析対象者(N=10)を対象とする形式的研究を行った。
ブランドのターゲット客等の興味ある店舗について、プロモーション情報のプッシュ通知やプル通知が望まれていることが判明した。
障害物や関心点に関する情報は、移動支援や群衆、子供、車椅子利用者の存在に応じてカスタマイズが必要であった。
これらの知見を,NavCog(ターンバイターンナビゲーションアプリ)とCabot(ナビゲーションロボット)の2つの既存のAI利用支援アプリケーションのコンテキストにおける,特定の情報モダリティとレンダリングに変換する。
関連論文リスト
- Floor extraction and door detection for visually impaired guidance [78.94595951597344]
未知の環境で障害物のない経路を見つけることは、視覚障害者や自律ロボットにとって大きなナビゲーション問題である。
コンピュータビジョンシステムに基づく新しいデバイスは、障害のある人が安全な環境で未知の環境でナビゲートすることの難しさを克服するのに役立つ。
本研究では,視覚障害者のためのナビゲーションシステムの構築につながるセンサとアルゴリズムの組み合わせを提案する。
論文 参考訳(メタデータ) (2024-01-30T14:38:43Z) - Robot Patrol: Using Crowdsourcing and Robotic Systems to Provide Indoor
Navigation Guidance to The Visually Impaired [5.973995274784383]
クラウドソーシング,コンピュータビジョン,ロボットフレームワークを組み合わせた統合システムを構築し,視覚障害者にコンテキスト情報を提供する。
本システムは,1)屋内へのルート上の潜在的な障害,2)回避や出席を希望するルート上の屋内イベントに関する情報,3)屋内への移動を安全かつ効果的に支援するその他の状況情報を提供するように設計されている。
論文 参考訳(メタデータ) (2023-06-05T12:49:52Z) - Emergence of Maps in the Memories of Blind Navigation Agents [68.41901534985575]
動物ナビゲーション研究は、生物が環境の空間的表現(地図)を構築、維持する、という仮説を定めている。
私たちはマシン、具体的には人工知能(AI)ナビゲーションエージェントが、暗黙の(あるいは「メンタル」な)マップを構築しているかどうか尋ねる。
動物ナビゲーションとは異なり、エージェントの知覚システムを司法的に設計し、学習パラダイムを制御して代替ナビゲーション機構を無効化することができる。
論文 参考訳(メタデータ) (2023-01-30T20:09:39Z) - Exploring and Improving the Accessibility of Data Privacy-related
Information for People Who Are Blind or Low-vision [22.66113008033347]
視覚障害者のプライバシの態度と行動について検討する。
本研究は,21名の米国参加者を対象に,詳細なインタビューを行った。
この研究の目的は、よりアクセスしやすいプライバシーツールに対するユーザーグループのニーズをよりよく理解することである。
論文 参考訳(メタデータ) (2022-08-21T20:54:40Z) - Augmented reality navigation system for visual prosthesis [67.09251544230744]
反応ナビゲーションと経路計画のソフトウェアを組み込んだ視覚補綴用拡張現実ナビゲーションシステムを提案する。
対象を地図上に配置し、対象の軌道を計画し、対象に示し、障害なく再計画する。
その結果,目標を達成するための時間と距離を減らし,障害物衝突の回数を大幅に減らし,航法性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-30T09:41:40Z) - VisBuddy -- A Smart Wearable Assistant for the Visually Challenged [0.0]
VisBuddyは音声ベースのアシスタントで、ユーザーは音声コマンドで特定のタスクを実行することができる。
ユーザの周囲を記述するための画像キャプション技術、ユーザの視点でテキストを読み取るための光学文字認識(OCR)、部屋内のオブジェクトを検索して見つけるためのオブジェクト検出、最新のニュースを提供するためのWebスクレイピングを使用する。
論文 参考訳(メタデータ) (2021-08-17T17:15:23Z) - Deep Learning for Embodied Vision Navigation: A Survey [108.13766213265069]
身体的視覚ナビゲーション」問題では、エージェントが3D環境をナビゲートする必要がある。
本稿では、総合的な文献調査を提供することで、視覚ナビゲーションの具体的分野における現在の研究の概要を確立することを試みる。
論文 参考訳(メタデータ) (2021-07-07T12:09:04Z) - Diagnosing Vision-and-Language Navigation: What Really Matters [61.72935815656582]
視覚言語ナビゲーション(VLN)は、エージェントが自然言語の指示に従って視覚環境をナビゲートするマルチモーダルタスクである。
近年の研究では、室内および屋外のVLNタスクのパフォーマンス改善が鈍化している。
本研究では,ナビゲーション中のエージェントの焦点を明らかにするための一連の診断実験を行う。
論文 参考訳(メタデータ) (2021-03-30T17:59:07Z) - Active Visual Information Gathering for Vision-Language Navigation [115.40768457718325]
視覚言語ナビゲーション(VLN)は、エージェントがフォトリアリスティックな環境の中でナビゲーションの指示を行うためのタスクである。
VLNの重要な課題の1つは、曖昧な指示による不確実性を緩和し、環境の観察を不十分にすることで、堅牢なナビゲーションを行う方法である。
この研究は、人間のナビゲーション行動からインスピレーションを得て、よりインテリジェントなVLNポリシーのためのアクティブな情報収集能力を持つエージェントを提供する。
論文 参考訳(メタデータ) (2020-07-15T23:54:20Z) - Pedestrian Detection with Wearable Cameras for the Blind: A Two-way
Perspective [21.32921014061283]
盲目の人々は周囲の情報へのアクセスが限られており、安全を確保し、社会的相互作用を管理し、接近する歩行者を特定するのに重要である。
コンピュータビジョンの進歩により、ウェアラブルカメラはそのような情報への公平なアクセスを提供することができる。
これらの補助技術の常備的な性質は、記録される可能性のある関係者に対するプライバシー上の懸念を生じさせる。
我々はこの緊張感を通行人や盲目のユーザーの両方の観点から探求し、カメラの視認性、対人対リモート体験、視覚情報の抽出を考慮に入れている。
論文 参考訳(メタデータ) (2020-03-26T19:34:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。