論文の概要: Assisting Blind People Using Object Detection with Vocal Feedback
- arxiv url: http://arxiv.org/abs/2401.01362v1
- Date: Mon, 18 Dec 2023 19:28:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 10:09:14.572143
- Title: Assisting Blind People Using Object Detection with Vocal Feedback
- Title(参考訳): 音声フィードバックを用いた物体検出による盲人支援
- Authors: Heba Najm, Khirallah Elferjani and Alhaam Alariyibi
- Abstract要約: 提案手法は,Webカメラを用いてリアルタイム映像中の物体を検出することを提案する。
PythonのOpenCVライブラリは、ソフトウェアプログラムの実装に使用される。
画像認識結果は、Googleのテキスト音声ライブラリーを用いて、視覚障害者に可聴形式で転送される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For visually impaired people, it is highly difficult to make independent
movement and safely move in both indoors and outdoors environment. Furthermore,
these physically and visually challenges prevent them from in day-today live
activities. Similarly, they have problem perceiving objects of surrounding
environment that may pose a risk to them. The proposed approach suggests
detection of objects in real-time video by using a web camera, for the object
identification, process. You Look Only Once (YOLO) model is utilized which is
CNN-based real-time object detection technique. Additionally, The OpenCV
libraries of Python is used to implement the software program as well as deep
learning process is performed. Image recognition results are transferred to the
visually impaired users in audible form by means of Google text-to-speech
library and determine object location relative to its position in the screen.
The obtaining result was evaluated by using the mean Average Precision (mAP),
and it was found that the proposed approach achieves excellent results when it
compared to previous approaches.
- Abstract(参考訳): 視覚障害者にとって、独立運動をし、屋内と屋外の両方で安全に移動することは極めて困難である。
さらに、身体的にも視覚的にも日々の生活活動を妨げている。
同様に、それらにはリスクをもたらす可能性のある周囲の環境の物体を知覚する問題がある。
提案手法では,Webカメラを用いてリアルタイム映像中の物体の識別,プロセスを提案する。
You Look Only Once (YOLO) モデルは、CNNベースのリアルタイムオブジェクト検出技術である。
さらに、PythonのOpenCVライブラリは、ディープラーニングプロセスの実行とともに、ソフトウェアプログラムの実装に使用される。
画像認識結果は、Googleのテキスト音声ライブラリを用いて視覚障害者に可聴形式で転送され、画面上の位置に対する対象位置を決定する。
平均精度 (mAP) を用いて, 平均精度 (mAP) を評価した結果, 提案手法は従来の手法と比較して優れた結果が得られることがわかった。
関連論文リスト
- Accelerating Object Detection with YOLOv4 for Real-Time Applications [0.276240219662896]
畳み込みニューラルネットワーク(CNN)は、ほとんどの問題に対して画像コンテンツとコンピュータビジョンアプローチを認識する強力なツールとして登場した。
本稿では、畳み込みニューラルネットワーク(CNN)のようなディープラーニングとオブジェクト検出フレームワークの簡単な紹介を紹介する。
論文 参考訳(メタデータ) (2024-10-17T17:44:57Z) - Visual Context-Aware Person Fall Detection [52.49277799455569]
画像中の個人とオブジェクトを半自動分離するセグメンテーションパイプラインを提案する。
ベッド、椅子、車椅子などの背景オブジェクトは、転倒検知システムに挑戦し、誤ったポジティブアラームを引き起こす。
トレーニング中のオブジェクト固有のコンテキスト変換が、この課題を効果的に軽減することを示す。
論文 参考訳(メタデータ) (2024-04-11T19:06:36Z) - SalienDet: A Saliency-based Feature Enhancement Algorithm for Object
Detection for Autonomous Driving [160.57870373052577]
未知の物体を検出するために,サリエンデット法(SalienDet)を提案する。
我々のSaienDetは、オブジェクトの提案生成のための画像機能を強化するために、サリエンシに基づくアルゴリズムを利用している。
オープンワールド検出を実現するためのトレーニングサンプルセットにおいて、未知のオブジェクトをすべてのオブジェクトと区別するためのデータセットレザベリングアプローチを設計する。
論文 参考訳(メタデータ) (2023-05-11T16:19:44Z) - Active Visual Search in the Wild [12.354788629408933]
本稿では,フリーフォーム言語を用いてターゲットコマンドを入力できるシステムを提案する。
私たちはこのシステムをActive Visual Search in the Wild (AVSW)と呼んでいる。
AVSWは、静的なランドマークで表されるセマンティックグリッドマップを通じて、ユーザが入力したターゲットオブジェクトを検出し、検索する計画である。
論文 参考訳(メタデータ) (2022-09-19T07:18:46Z) - SHOP: A Deep Learning Based Pipeline for near Real-Time Detection of
Small Handheld Objects Present in Blurry Video [0.0]
ハンドヘルドオブジェクトを含むぼやけた画像を確実に解釈するパイプラインであるSHOP(Small Handheld Object Pipeline)を提案する。
パイプラインの各段階で使用される具体的なモデルはフレキシブルで、パフォーマンス要件に基づいて変更可能である。
また、ハンドヘルドオブジェクトのみからなるMS COCOのサブセットを提示し、ハンドヘルドオブジェクト検出手法の開発を継続する。
論文 参考訳(メタデータ) (2022-03-29T04:31:30Z) - Object Manipulation via Visual Target Localization [64.05939029132394]
オブジェクトを操作するための訓練エージェントは、多くの課題を提起します。
本研究では,対象物体を探索する環境を探索し,位置が特定されると3次元座標を計算し,対象物が見えない場合でも3次元位置を推定する手法を提案する。
評価の結果,同じ感覚スイートにアクセス可能なモデルに比べて,成功率が3倍に向上したことが示された。
論文 参考訳(メタデータ) (2022-03-15T17:59:01Z) - Siamese Network Training Using Sampled Triplets and Image Transformation [0.0]
この研究で使われた装置は、2つの熱カメラを使って水面上の物体を検出する。
障害物衝突を自律的に回避するには,物体をリアルタイムで追跡する必要がある。
コンピュータビジョン(CV)のための機械学習(ML)アプローチは、Pythonのハイレベルプログラミング環境として使用された。
論文 参考訳(メタデータ) (2021-06-13T14:47:52Z) - Analysis of voxel-based 3D object detection methods efficiency for
real-time embedded systems [93.73198973454944]
本稿では, ボクセルをベースとした2つの3次元物体検出手法について述べる。
実験の結果,これらの手法は入力点雲が遠距離にあるため,遠距離の小さな物体を検出できないことが確認できた。
この結果から,既存手法の計算のかなりの部分は,検出に寄与しないシーンの位置に着目していることが示唆された。
論文 参考訳(メタデータ) (2021-05-21T12:40:59Z) - Scale Normalized Image Pyramids with AutoFocus for Object Detection [75.71320993452372]
スケール正規化画像ピラミッド(SNIP)が生成され、人間の視覚と同様に、異なるスケールで固定されたサイズ範囲内のオブジェクトにのみ参加する。
本研究では,オブジェクトを含む可能性のある固定サイズのサブリージョンのみで動作する,効率的な空間サブサンプリング手法を提案する。
結果のアルゴリズムはAutoFocusと呼ばれ、SNIPを使用する場合の推論では2.5~5倍のスピードアップとなる。
論文 参考訳(メタデータ) (2021-02-10T18:57:53Z) - POMP: Pomcp-based Online Motion Planning for active visual search in
indoor environments [89.43830036483901]
本稿では, 屋内環境におけるオブジェクトのアクティブビジュアルサーチ(AVS)の最適ポリシーを, オンライン設定で学習する問題に焦点をあてる。
提案手法はエージェントの現在のポーズとRGB-Dフレームを入力として使用する。
提案手法を利用可能なAVDベンチマークで検証し,平均成功率0.76,平均パス長17.1とした。
論文 参考訳(メタデータ) (2020-09-17T08:23:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。