論文の概要: MagicEye: An Intelligent Wearable Towards Independent Living of Visually
Impaired
- arxiv url: http://arxiv.org/abs/2303.13863v1
- Date: Fri, 24 Mar 2023 08:59:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-27 15:18:08.528347
- Title: MagicEye: An Intelligent Wearable Towards Independent Living of Visually
Impaired
- Title(参考訳): MagicEye:視覚障害者の自立生活を目指す知的ウェアラブル
- Authors: Sibi C. Sethuraman, Gaurav R. Tadkapally, Saraju P. Mohanty, Gautam
Galada and Anitha Subramanian
- Abstract要約: 視覚障害は、仕事、ナビゲート、独立維持の能力を著しく損なう可能性がある。
MagicEyeは、視覚障害者を支援するために設計された最先端のインテリジェントウェアラブルデバイスだ。
合計35のクラスで、MagicEyeが採用しているニューラルネットワークは、オブジェクト検出における高いレベルの効率と精度を達成するために特別に設計されている。
- 参考スコア(独自算出の注目度): 0.17499351967216337
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Individuals with visual impairments often face a multitude of challenging
obstacles in their daily lives. Vision impairment can severely impair a
person's ability to work, navigate, and retain independence. This can result in
educational limits, a higher risk of accidents, and a plethora of other issues.
To address these challenges, we present MagicEye, a state-of-the-art
intelligent wearable device designed to assist visually impaired individuals.
MagicEye employs a custom-trained CNN-based object detection model, capable of
recognizing a wide range of indoor and outdoor objects frequently encountered
in daily life. With a total of 35 classes, the neural network employed by
MagicEye has been specifically designed to achieve high levels of efficiency
and precision in object detection. The device is also equipped with facial
recognition and currency identification modules, providing invaluable
assistance to the visually impaired. In addition, MagicEye features a GPS
sensor for navigation, allowing users to move about with ease, as well as a
proximity sensor for detecting nearby objects without physical contact. In
summary, MagicEye is an innovative and highly advanced wearable device that has
been designed to address the many challenges faced by individuals with visual
impairments. It is equipped with state-of-the-art object detection and
navigation capabilities that are tailored to the needs of the visually
impaired, making it one of the most promising solutions to assist those who are
struggling with visual impairments.
- Abstract(参考訳): 視覚障害を持つ個人は、日常生活で多くの困難に直面している。
視覚障害は、人の働き、ナビゲート、独立性を維持する能力を著しく損なうことがある。
これは教育の限界、事故のリスクの増大、その他多くの問題を引き起こす可能性がある。
そこで我々は,視覚障害者を支援する最先端のウェアラブルデバイスであるmagiceyeを提案する。
MagicEyeはカスタムトレーニングされたCNNベースのオブジェクト検出モデルを採用しており、日常生活で頻繁に遭遇する広範囲の屋内および屋外オブジェクトを認識することができる。
合計35のクラスで、magiceyeが使用するニューラルネットワークは、オブジェクト検出において高いレベルの効率と精度を達成するために特別に設計されている。
また、顔認識と通貨識別モジュールを備えており、視覚障害者に貴重な支援を提供する。
さらにmagiceyeはナビゲーション用のgpsセンサーも備えており、ユーザーは簡単に動き回れるほか、物理的に接触せずに近くの物体を検知できる近接センサーも備えている。
MagicEyeは革新的で高度なウェアラブルデバイスで、視覚障害者が直面する多くの課題に対処するために設計されている。
最先端の物体検出とナビゲーション機能を備えており、視覚障害者のニーズに合わせて調整されており、視覚障害者を支援する最も有望なソリューションの1つである。
関連論文リスト
- Improve accessibility for Low Vision and Blind people using Machine Learning and Computer Vision [0.0]
このプロジェクトでは、視覚障害者のアクセシビリティ向上に機械学習とコンピュータビジョンを活用する方法について検討する。
このプロジェクトでは、視覚障害者が音声や触覚のフィードバックを受信することで、空間内でのオリエントを支援するモバイルアプリケーションの構築に集中する。
論文 参考訳(メタデータ) (2024-03-24T21:19:17Z) - Floor extraction and door detection for visually impaired guidance [78.94595951597344]
未知の環境で障害物のない経路を見つけることは、視覚障害者や自律ロボットにとって大きなナビゲーション問題である。
コンピュータビジョンシステムに基づく新しいデバイスは、障害のある人が安全な環境で未知の環境でナビゲートすることの難しさを克服するのに役立つ。
本研究では,視覚障害者のためのナビゲーションシステムの構築につながるセンサとアルゴリズムの組み合わせを提案する。
論文 参考訳(メタデータ) (2024-01-30T14:38:43Z) - See, Hear, and Feel: Smart Sensory Fusion for Robotic Manipulation [49.925499720323806]
視覚的、聴覚的、触覚的知覚が、ロボットが複雑な操作タスクを解くのにどのように役立つかを研究する。
私たちは、カメラで見たり、コンタクトマイクで聞いたり、視覚ベースの触覚センサーで感じるロボットシステムを構築しました。
論文 参考訳(メタデータ) (2022-12-07T18:55:53Z) - Augmented reality navigation system for visual prosthesis [67.09251544230744]
反応ナビゲーションと経路計画のソフトウェアを組み込んだ視覚補綴用拡張現実ナビゲーションシステムを提案する。
対象を地図上に配置し、対象の軌道を計画し、対象に示し、障害なく再計画する。
その結果,目標を達成するための時間と距離を減らし,障害物衝突の回数を大幅に減らし,航法性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-30T09:41:40Z) - VisBuddy -- A Smart Wearable Assistant for the Visually Challenged [0.0]
VisBuddyは音声ベースのアシスタントで、ユーザーは音声コマンドで特定のタスクを実行することができる。
ユーザの周囲を記述するための画像キャプション技術、ユーザの視点でテキストを読み取るための光学文字認識(OCR)、部屋内のオブジェクトを検索して見つけるためのオブジェクト検出、最新のニュースを提供するためのWebスクレイピングを使用する。
論文 参考訳(メタデータ) (2021-08-17T17:15:23Z) - Deep Learning for Embodied Vision Navigation: A Survey [108.13766213265069]
身体的視覚ナビゲーション」問題では、エージェントが3D環境をナビゲートする必要がある。
本稿では、総合的な文献調査を提供することで、視覚ナビゲーションの具体的分野における現在の研究の概要を確立することを試みる。
論文 参考訳(メタデータ) (2021-07-07T12:09:04Z) - Gaze-contingent decoding of human navigation intention on an autonomous
wheelchair platform [6.646253877148766]
We have developed the Where-You-Look-Is Where-You-Go approach to control mobile platform。
我々は,1. 深いコンピュータビジョンを用いて,ユーザが視点で何を見ているのかを理解する新しいソリューションを提案する。
私たちのデコードシステムは最終的に、ユーザーがドアなどへ運転したいかどうかを判断するか、単にそれを見るかを決定します。
論文 参考訳(メタデータ) (2021-03-04T14:52:06Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - Reactive Human-to-Robot Handovers of Arbitrary Objects [57.845894608577495]
本稿では、未知の物体の人間とロボットのハンドオーバを可能にするビジョンベースシステムを提案する。
提案手法は,クローズドループ運動計画とリアルタイムかつ時間的に一貫性のあるグリップ生成を組み合わせたものである。
提案手法の汎用性,ユーザビリティ,ロバスト性を,26種類の家庭用オブジェクトからなる新しいベンチマークで実証した。
論文 参考訳(メタデータ) (2020-11-17T21:52:22Z) - Towards Hardware-Agnostic Gaze-Trackers [0.5512295869673146]
本稿では、制約付き視線追跡のための外観に基づく手法として、ディープニューラルネットワークアーキテクチャを提案する。
我々のシステムは、キャリブレーションやデバイス固有の微調整なしで、GazeCaptureデータセット上で1.8073cmの誤差を達成した。
論文 参考訳(メタデータ) (2020-10-11T00:53:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。