論文の概要: Guardian Angel: A Novel Walking Aid for the Visually Impaired
- arxiv url: http://arxiv.org/abs/2206.09570v1
- Date: Mon, 20 Jun 2022 04:57:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-25 15:16:41.867675
- Title: Guardian Angel: A Novel Walking Aid for the Visually Impaired
- Title(参考訳): Guardian Angel:視覚障害者のための新しい歩行支援
- Authors: Ko-Wei Tai, HuaYen Lee, Hsin-Huei Chen, Jeng-Sheng Yeh, Ming Ouhyoung
- Abstract要約: Guardian Angelは、視覚障害者が複雑な交通環境の危険を避けるのを助けるAndroidアプリだ。
アプリはGoogle Play Storeで公開されており、無料で公開されている。
- 参考スコア(独自算出の注目度): 1.5599422325061423
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work introduces Guardian Angel, an Android App that assists visually
impaired people to avoid danger in complex traffic environment. The system,
consisting of object detection by pretrained YOLO model, distance estimation
and moving direction estimation, provides information about surrounding
vehicles and alarms users of potential danger without expensive special purpose
device. With an experiment of 8 subjects, we corroborate that in terms of
satisfaction score in pedestrian-crossing experiment with the assistance of our
App using a smartphone is better than when without under 99% confidence level.
The time needed to cross a road is shorter on average with the assistance of
our system, however, not reaching significant difference by our experiment. The
App has been released in Google Play Store, open to the public for free.
- Abstract(参考訳): この研究は、視覚障害者が複雑な交通環境の危険を避けるのを助けるandroidアプリguardian angelを紹介している。
このシステムは、事前訓練されたYOLOモデルによる物体検出、距離推定、移動方向推定により、周囲の車両に関する情報を提供し、高価な専用装置を使わずに潜在的な危険を警告する。
8人の被験者による実験から,スマートフォンを用いたアプリによる歩行者横断実験の満足度は,99%未満の信頼レベルである場合よりも優れていた。
道路を横断するのに要する時間は、平均してシステムの支援によって短くなりますが、実験によって大きな差は得られません。
アプリはGoogle Play Storeで公開されており、無料で公開されている。
関連論文リスト
- Reliable Heading Tracking for Pedestrian Road Crossing Prediction Using Commodity Devices [17.213711945639847]
我々は,移動中にスマートフォンを振り回すなどの習慣により,スマートフォンを一定の方法で携帯する傾向にある,という重要な洞察を生かした新たな方向追跡アルゴリズム,Orientation-Heading Alignment (OHA)を提案する。
我々は、歩行者が道路利用者の安全を改善するために道路を横断しようとしている時期を予測するという、困難な課題にOHAを適用した。
評価の結果、OHAは既存の手法に比べて9つのシナリオで3.4倍小さい方向誤差を達成できた。
論文 参考訳(メタデータ) (2024-10-08T22:12:18Z) - MSight: An Edge-Cloud Infrastructure-based Perception System for
Connected Automated Vehicles [58.461077944514564]
本稿では,自動走行車に特化して設計された最先端道路側認識システムであるMSightについて述べる。
MSightは、リアルタイムの車両検出、ローカライゼーション、トラッキング、短期的な軌道予測を提供する。
評価は、待ち時間を最小限にしてレーンレベルの精度を維持するシステムの能力を強調している。
論文 参考訳(メタデータ) (2023-10-08T21:32:30Z) - Vehicle Safety Management System [0.0]
本研究では,YOLO(You Only Look Once)オブジェクト検出アルゴリズムとステレオビジョン技術を組み合わせたリアルタイムオーバーテイク支援システムを提案する。
距離解析にはステレオビジョン,オブジェクト識別にはYOLO(You Only Look Once)が用いられている。
論文 参考訳(メタデータ) (2023-04-16T16:15:25Z) - Unsupervised Adaptation from Repeated Traversals for Autonomous Driving [54.59577283226982]
自動運転車はエンドユーザー環境に一般化し、確実に動作させなければならない。
潜在的な解決策の1つは、エンドユーザの環境から収集されたラベルのないデータを活用することである。
適応過程を監督する信頼性のある信号はターゲット領域に存在しない。
この単純な仮定は、ターゲット領域上の3次元物体検出器の反復的自己学習を可能にする強力な信号を得るのに十分であることを示す。
論文 参考訳(メタデータ) (2023-03-27T15:07:55Z) - Implementation of a Blind navigation method in outdoors/indoors areas [0.0]
視覚障害者にとって最も重要な必要性の1つは、安全にナビゲートできる能力である。
本稿では,単眼カメラを用いた視覚スラムとヨロアルゴリズムに基づくナビゲーションシステムを提案する。
論文 参考訳(メタデータ) (2022-12-23T07:50:11Z) - A Robust Pedestrian Detection Approach for Autonomous Vehicles [2.0883760606514934]
本稿では,カリフォルニア工科大学の歩行者データセットの実例における歩行者検出問題を処理するためのYOLOv5フレームワークを微調整することを目的とする。
実験結果から,歩行者検出作業における細調整モデルの平均精度(mAP)は,70FPSの最高速度で行う場合,91%以上であることがわかった。
論文 参考訳(メタデータ) (2022-10-19T11:53:14Z) - Threat Detection In Self-Driving Vehicles Using Computer Vision [0.0]
ダッシュカムビデオを用いた自動運転車の脅威検出機構を提案する。
オブジェクトを識別するためのYOLO,高度な車線検出アルゴリズム,カメラからの距離を測定するマルチレグレッションモデルという,4つの主要なコンポーネントがある。
提案した脅威検出モデル(TDM)の最終的な精度は82.65%である。
論文 参考訳(メタデータ) (2022-09-06T12:01:07Z) - CODA: A Real-World Road Corner Case Dataset for Object Detection in
Autonomous Driving [117.87070488537334]
我々は、ビジョンベース検出器のこの重要な問題を露呈する、CODAという挑戦的なデータセットを導入する。
大規模自動運転データセットで訓練された標準物体検出器の性能は、mARの12.8%以下に著しく低下した。
我々は最先端のオープンワールドオブジェクト検出器を実験し、CODAの新しいオブジェクトを確実に識別できないことを発見した。
論文 参考訳(メタデータ) (2022-03-15T08:32:56Z) - Learning Perceptual Locomotion on Uneven Terrains using Sparse Visual
Observations [75.60524561611008]
この研究は、人中心の環境において、よく見られるバンプ、ランプ、階段の広い範囲にわたる知覚的移動を達成するために、スパースな視覚的観察の使用を活用することを目的としている。
まず、関心の均一な面を表すことのできる最小限の視覚入力を定式化し、このような外受容的・固有受容的データを統合した学習フレームワークを提案する。
本研究では, 平地を全方向歩行し, 障害物のある地形を前方移動させるタスクにおいて, 学習方針を検証し, 高い成功率を示す。
論文 参考訳(メタデータ) (2021-09-28T20:25:10Z) - Exploiting Playbacks in Unsupervised Domain Adaptation for 3D Object
Detection [55.12894776039135]
ディープラーニングに基づく最先端の3Dオブジェクト検出器は、有望な精度を示しているが、ドメインの慣用性に過度に適合する傾向がある。
対象領域の擬似ラベルの検出器を微調整することで,このギャップを大幅に削減する新たな学習手法を提案する。
5つの自律運転データセットにおいて、これらの擬似ラベル上の検出器を微調整することで、新しい運転環境への領域ギャップを大幅に減らすことを示す。
論文 参考訳(メタデータ) (2021-03-26T01:18:11Z) - Physically Realizable Adversarial Examples for LiDAR Object Detection [72.0017682322147]
本稿では,LiDAR検出器を騙すために,汎用な3次元対向物体を生成する手法を提案する。
特に,LiDAR検出器から車両を完全に隠蔽するために,車両の屋根上に対向物体を配置し,その成功率は80%であることを示した。
これは、限られたトレーニングデータから見知らぬ条件下での、より安全な自動運転への一歩だ。
論文 参考訳(メタデータ) (2020-04-01T16:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。