論文の概要: Advanced Audio Aid for Blind People
- arxiv url: http://arxiv.org/abs/2212.00004v1
- Date: Thu, 17 Nov 2022 07:13:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-04 14:43:28.790490
- Title: Advanced Audio Aid for Blind People
- Title(参考訳): 盲人のための高度なオーディオ支援
- Authors: Savera Sarwar, Muhammad Turab, Danish Channa, Aisha Chandio, M. Uzair
Sohu and Vikram Kumar
- Abstract要約: 私たちの愛国パキスタンには、約4200万人が盲目です。
本研究の目的は、視覚障害者に対象物について語り、印刷されたテキストを読むことによって、リアルタイムの世界をオーディオの世界に変えることである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One of the most important senses in human life is vision, without it life is
totally filled with darkness. According to WHO globally millions of people are
visually impaired estimated there are 285 million, of whom some millions are
blind. Unfortunately, there are around 2.4 million people are blind in our
beloved country Pakistan. Human are a crucial part of society and the blind
community is a main part of society. The technologies are grown so far to make
the life of humans easier more comfortable and more reliable for. However, this
disability of the blind community would reduce their chance of using such
innovative products. Therefore, the visually impaired community believe that
they are burden to other societies and they do not capture in normal activities
separates the blind people from society and because of this believe did not
participate in the normally tasks of society . The visual impair people mainly
face most of the problems in this real-time The aim of this work is to turn the
real time world into an audio world by telling blind person about the objects
in their way and can read printed text. This will enable blind persons to
identify the things and read the text without any external help just by using
the object detection and reading system in real time. Objective of this work:
i) Object detection ii) Read printed text, using state-of-the-art (SOTA)
technology.
- Abstract(参考訳): 人間の人生における最も重要な感覚の1つは視覚であり、それなしでは生命は完全に闇に満ちている。
WHOによると、視覚障害者の数は2億8500万人で、そのうち数百万人が盲目だという。
残念なことに、我々の愛する国パキスタンでは、約240万人が盲目です。
人間は社会の重要な部分であり、盲目社会は社会の主要な部分である。
この技術は、人間の生活をより快適にし、より信頼性を高めるために、これまでに成長してきた。
しかし、この盲目のコミュニティの障害は、このような革新的な製品を使う機会を減らすだろう。
そのため、視覚障害者社会は、他人の社会に負担を負い、正常な活動では捕えられず、盲目の人々を社会から切り離し、そのため社会の通常の任務には参加しなかった。
視覚障害者は主に、このリアルタイムのほとんどの問題に直面している。この研究の目的は、視覚障害者にその途中でオブジェクトについて伝え、印刷されたテキストを読むことによって、リアルタイム世界をオーディオの世界に変えることである。
これにより、視覚障害者は、物体の検出と読み取りシステムをリアルタイムで使用するだけで、外部の助けなしに、物を識別し、テキストを読むことができる。
この作品の目的
i) 対象物の検出
二 最先端技術(SOTA)を用いて印刷テキストを読み取ること。
関連論文リスト
- Improve accessibility for Low Vision and Blind people using Machine Learning and Computer Vision [0.0]
このプロジェクトでは、視覚障害者のアクセシビリティ向上に機械学習とコンピュータビジョンを活用する方法について検討する。
このプロジェクトでは、視覚障害者が音声や触覚のフィードバックを受信することで、空間内でのオリエントを支援するモバイルアプリケーションの構築に集中する。
論文 参考訳(メタデータ) (2024-03-24T21:19:17Z) - How Can Generative AI Enhance the Well-being of Blind? [0.0]
本稿では,視覚障害者や視覚障害者の幸福感を,生成型AIがいかに改善できるかを考察する。
これは現在の例であるBe My Eyesアプリを指しており、2023年にBe My AI機能が統合された。
このツールのパワーは、静止画を驚くほど分析できる。
論文 参考訳(メタデータ) (2024-02-02T10:26:39Z) - Newvision: application for helping blind people using deep learning [0.0]
われわれは視覚障害者が周囲をナビゲートするのに役立つプロプライエタリなヘッドギアを開発している。
ヘッドギアにはコンピュータービジョン、距離推定、超音波センサー、音声認識、音声アシスタントが組み込まれている。
ユーザは ''What is it'' などの音声コマンドでヘッドギアと対話してオブジェクトを識別できる。
論文 参考訳(メタデータ) (2023-11-05T06:23:10Z) - Mental Illness Classification on Social Media Texts using Deep Learning
and Transfer Learning [55.653944436488786]
世界保健機関(WHO)によると、約4億5000万人が影響を受ける。
うつ病、不安症、双極性障害、ADHD、PTSDなどの精神疾患。
本研究では、Redditプラットフォーム上の非構造化ユーザデータを分析し、うつ病、不安、双極性障害、ADHD、PTSDの5つの一般的な精神疾患を分類する。
論文 参考訳(メタデータ) (2022-07-03T11:33:52Z) - Play it by Ear: Learning Skills amidst Occlusion through Audio-Visual
Imitation Learning [62.83590925557013]
我々は視覚と音声の入力から、部分的に観察された操作タスクのセットを学習する。
提案システムは,遠隔操作による実演とオンラインファインタニングを併用することで,これらの課題を学習する。
模擬課題の集合において、我々のシステムは音声を使うことの恩恵を受けており、オンライン介入を用いることで、オフライン模倣学習の成功率を20%向上できることがわかった。
論文 参考訳(メタデータ) (2022-05-30T04:52:58Z) - Do Pedestrians Pay Attention? Eye Contact Detection in the Wild [75.54077277681353]
都市環境では、人間は近くの人々との迅速かつ効率的なコミュニケーションのためにアイコンタクトに依存している。
本稿では,環境や歩行者距離を制御できない自動運転車の眼球接触検出,すなわち実世界のシナリオに着目した。
本稿では, セマンティックキーポイントを利用したアイコンタクト検出モデルを導入し, このハイレベルな表現が, 一般公開データセットJAADの最先端結果を実現することを示す。
ドメイン適応を研究するために、私たちは、野生のアイコンタクト検出のための大規模データセット、LOOKを作成しました。
論文 参考訳(メタデータ) (2021-12-08T10:21:28Z) - Can machines learn to see without visual databases? [93.73109506642112]
本稿では,視覚的データベースを扱わずに視界を学習するマシンの開発に焦点をあてる。
これは、ビジョンのためのディープラーニング技術に関する真に競争の激しい道を開くかもしれない。
論文 参考訳(メタデータ) (2021-10-12T13:03:54Z) - VisBuddy -- A Smart Wearable Assistant for the Visually Challenged [0.0]
VisBuddyは音声ベースのアシスタントで、ユーザーは音声コマンドで特定のタスクを実行することができる。
ユーザの周囲を記述するための画像キャプション技術、ユーザの視点でテキストを読み取るための光学文字認識(OCR)、部屋内のオブジェクトを検索して見つけるためのオブジェクト検出、最新のニュースを提供するためのWebスクレイピングを使用する。
論文 参考訳(メタデータ) (2021-08-17T17:15:23Z) - AEGIS: A real-time multimodal augmented reality computer vision based
system to assist facial expression recognition for individuals with autism
spectrum disorder [93.0013343535411]
本稿では,コンピュータビジョンと深部畳み込みニューラルネットワーク(CNN)を組み合わせたマルチモーダル拡張現実(AR)システムの開発について述べる。
提案システムはAIGISと呼ばれ,タブレット,スマートフォン,ビデオ会議システム,スマートグラスなど,さまざまなユーザデバイスにデプロイ可能な支援技術である。
我々は空間情報と時間情報の両方を活用して正確な表現予測を行い、それを対応する可視化に変換し、元のビデオフレーム上に描画する。
論文 参考訳(メタデータ) (2020-10-22T17:20:38Z) - Smart Summarizer for Blind People [0.0]
本稿では,ニュースを重要なキーワードに要約することで,毎回,全文を要約する作業を省くための効率的な手法について述べる。
本稿で扱う他の機能は、要約されたテキストを音声に変換することで、視覚障害者にも役立てることができる。
論文 参考訳(メタデータ) (2020-01-01T20:39:22Z) - Vision and Language: from Visual Perception to Content Creation [100.36776435627962]
言語へのビジョン"は、おそらく過去5年で最も人気のあるトピックの1つである。
本稿は、これらの2つの側面に沿った最近の進歩、すなわち「言語へのビジョン」と「視覚への言語」を概観する。
論文 参考訳(メタデータ) (2019-12-26T14:07:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。