論文の概要: Newvision: application for helping blind people using deep learning
- arxiv url: http://arxiv.org/abs/2311.03395v1
- Date: Sun, 5 Nov 2023 06:23:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-08 18:28:14.295387
- Title: Newvision: application for helping blind people using deep learning
- Title(参考訳): newvision: ディープラーニングを使って盲目の人を助けるアプリケーション
- Authors: Kumar Srinivas Bobba, Kartheeban K, Vamsi Krishna Sai Boddu, Vijaya
Mani Surendra Bolla, Dinesh Bugga
- Abstract要約: われわれは視覚障害者が周囲をナビゲートするのに役立つプロプライエタリなヘッドギアを開発している。
ヘッドギアにはコンピュータービジョン、距離推定、超音波センサー、音声認識、音声アシスタントが組み込まれている。
ユーザは ''What is it'' などの音声コマンドでヘッドギアと対話してオブジェクトを識別できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As able-bodied people, we often take our vision for granted. For people who
are visually impaired, however, their disability can have a significant impact
on their daily lives. We are developing proprietary headgear that will help
visually impaired people navigate their surroundings, identify objects and
people, read text, and avoid obstacles. The headgear will use a combination of
computer vision, distance estimation with ultrasonic sensors, voice
recognition, and voice assistants to provide users with real-time information
about their environment. Users will be able to interact with the headgear
through voice commands, such as ''What is that?'' to identify an object or
''Navigate to the front door'' to find their way around. The headgear will then
provide the user with a verbal description of the object or spoken navigation
instructions. We believe that this headgear has the potential to make a
significant difference in the lives of visually impaired people, allowing them
to live more independently and participate more fully in society.
- Abstract(参考訳): 有能な身体を持つ人々として、私たちはしばしば自分のビジョンを当然と捉えます。
しかし、視覚障害者にとっては、その障害が日常生活に大きな影響を与える可能性がある。
私たちは、視覚障害者が周囲をナビゲートし、オブジェクトや人物を特定し、テキストを読み、障害物を避けるのに役立つプロプライエタリなヘッドギアを開発している。
ヘッドギアはコンピュータビジョン、超音波センサーによる距離推定、音声認識、音声アシスタントを組み合わせて、ユーザーの環境に関するリアルタイム情報を提供する。
ユーザーは、音声コマンドでヘッドギアと対話でき、オブジェクトを識別したり、'navigate to the front door'を検索したりすることができる。
ヘッドギアは、オブジェクトの言葉による説明や、音声によるナビゲーション命令をユーザに提供します。
我々は、このヘッドギアが視覚障害者の生活に大きな変化をもたらす可能性があり、より独立して生活し、社会に完全に参加できると考えている。
関連論文リスト
- Real-Time Pill Identification for the Visually Impaired Using Deep Learning [31.747327310138314]
本稿では,視覚障害者と視覚障害者をリアルタイムに識別する深層学習型モバイルアプリケーションの開発と実装について検討する。
本アプリケーションは,モバイルデバイス上でのリアルタイム画像処理により,さまざまな薬種を正確に認識し,区別することを目的としている。
論文 参考訳(メタデータ) (2024-05-08T03:18:46Z) - Improve accessibility for Low Vision and Blind people using Machine Learning and Computer Vision [0.0]
このプロジェクトでは、視覚障害者のアクセシビリティ向上に機械学習とコンピュータビジョンを活用する方法について検討する。
このプロジェクトでは、視覚障害者が音声や触覚のフィードバックを受信することで、空間内でのオリエントを支援するモバイルアプリケーションの構築に集中する。
論文 参考訳(メタデータ) (2024-03-24T21:19:17Z) - Floor extraction and door detection for visually impaired guidance [78.94595951597344]
未知の環境で障害物のない経路を見つけることは、視覚障害者や自律ロボットにとって大きなナビゲーション問題である。
コンピュータビジョンシステムに基づく新しいデバイスは、障害のある人が安全な環境で未知の環境でナビゲートすることの難しさを克服するのに役立つ。
本研究では,視覚障害者のためのナビゲーションシステムの構築につながるセンサとアルゴリズムの組み合わせを提案する。
論文 参考訳(メタデータ) (2024-01-30T14:38:43Z) - MagicEye: An Intelligent Wearable Towards Independent Living of Visually
Impaired [0.17499351967216337]
視覚障害は、仕事、ナビゲート、独立維持の能力を著しく損なう可能性がある。
MagicEyeは、視覚障害者を支援するために設計された最先端のインテリジェントウェアラブルデバイスだ。
合計35のクラスで、MagicEyeが採用しているニューラルネットワークは、オブジェクト検出における高いレベルの効率と精度を達成するために特別に設計されている。
論文 参考訳(メタデータ) (2023-03-24T08:59:35Z) - Play it by Ear: Learning Skills amidst Occlusion through Audio-Visual
Imitation Learning [62.83590925557013]
我々は視覚と音声の入力から、部分的に観察された操作タスクのセットを学習する。
提案システムは,遠隔操作による実演とオンラインファインタニングを併用することで,これらの課題を学習する。
模擬課題の集合において、我々のシステムは音声を使うことの恩恵を受けており、オンライン介入を用いることで、オフライン模倣学習の成功率を20%向上できることがわかった。
論文 参考訳(メタデータ) (2022-05-30T04:52:58Z) - Can machines learn to see without visual databases? [93.73109506642112]
本稿では,視覚的データベースを扱わずに視界を学習するマシンの開発に焦点をあてる。
これは、ビジョンのためのディープラーニング技術に関する真に競争の激しい道を開くかもしれない。
論文 参考訳(メタデータ) (2021-10-12T13:03:54Z) - VisBuddy -- A Smart Wearable Assistant for the Visually Challenged [0.0]
VisBuddyは音声ベースのアシスタントで、ユーザーは音声コマンドで特定のタスクを実行することができる。
ユーザの周囲を記述するための画像キャプション技術、ユーザの視点でテキストを読み取るための光学文字認識(OCR)、部屋内のオブジェクトを検索して見つけるためのオブジェクト検出、最新のニュースを提供するためのWebスクレイピングを使用する。
論文 参考訳(メタデータ) (2021-08-17T17:15:23Z) - Assisted Perception: Optimizing Observations to Communicate State [112.40598205054994]
我々は、ロボット遠隔操作や視覚障害のあるナビゲーションといったタスクにおいて、ユーザが世界の状態を見積もるのを支援することを目的としている。
ユーザによって処理された場合、より正確な内部状態推定につながる新しい観測結果を合成する。
論文 参考訳(メタデータ) (2020-08-06T19:08:05Z) - Does Visual Self-Supervision Improve Learning of Speech Representations
for Emotion Recognition? [63.564385139097624]
本研究は,音声表現の学習を指導するために,顔再構成による視覚的自己監督について検討する。
提案した視覚的・音声的自己監督のマルチタスクの組み合わせは,よりリッチな特徴を学習する上で有益であることを示す。
学習した音声表現を、離散的感情認識、連続的感情認識、自動音声認識のために評価する。
論文 参考訳(メタデータ) (2020-05-04T11:33:40Z) - Vision and Language: from Visual Perception to Content Creation [100.36776435627962]
言語へのビジョン"は、おそらく過去5年で最も人気のあるトピックの1つである。
本稿は、これらの2つの側面に沿った最近の進歩、すなわち「言語へのビジョン」と「視覚への言語」を概観する。
論文 参考訳(メタデータ) (2019-12-26T14:07:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。