論文の概要: Guidance system for Visually Impaired Persons using Deep Learning and
Optical flow
- arxiv url: http://arxiv.org/abs/2310.14239v1
- Date: Sun, 22 Oct 2023 09:24:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 00:50:33.317547
- Title: Guidance system for Visually Impaired Persons using Deep Learning and
Optical flow
- Title(参考訳): 深層学習と光学的フローを用いた視覚障害者の指導システム
- Authors: Shwetang Dubey, Alok Ranjan Sahoo and Pavan Chakraborty
- Abstract要約: 視覚障害者は、道路を歩いている間、周囲について知ることは困難です。
彼らによって使用される歩行棒は、スティックの近接する障害物に関する情報しか得られない。
本稿では,にぎやかな通りで案内する方法を紹介する。
- 参考スコア(独自算出の注目度): 1.0742675209112622
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Visually impaired persons find it difficult to know about their surroundings
while walking on a road. Walking sticks used by them can only give them
information about the obstacles in the stick's proximity. Moreover, it is
mostly effective in static or very slow-paced environments. Hence, this paper
introduces a method to guide them in a busy street. To create such a system it
is very important to know about the approaching object and its direction of
approach. To achieve this objective we created a method in which the image
frame received from the video is divided into three parts i.e. center, left,
and right to know the direction of approach of the approaching object. Object
detection is done using YOLOv3. Lucas Kanade's optical flow estimation method
is used for the optical flow estimation and Depth-net is used for depth
estimation. Using the depth information, object motion trajectory, and object
category information, the model provides necessary information/warning to the
person. This model has been tested in the real world to show its effectiveness.
- Abstract(参考訳): 視覚障害者は、道路を歩いている間、周囲について知ることは困難です。
彼らによって使われる杖は、スティックの近辺の障害物に関する情報しか与えない。
さらに、静的または非常に遅いペースの環境では有効である。
そこで,本稿では,交通量の多い街路を案内する手法を提案する。
このようなシステムを構築するためには、接近するオブジェクトとそのアプローチの方向性を知ることが非常に重要です。
この目的を達成するために,映像から受信した画像フレームを中央,左,右の3つの部分に分けられ,接近対象の接近方向を知る方法を開発した。
オブジェクト検出はYOLOv3を使って行われる。
ルーカスカナデの光学フロー推定法は光学フロー推定に、深さネットは深さ推定に使用される。
深度情報、物体運動軌跡、対象カテゴリ情報を用いて、モデルは人に必要な情報/警告を提供する。
このモデルは実世界でテストされ、その効果を示している。
関連論文リスト
- Dense Monocular Motion Segmentation Using Optical Flow and Pseudo Depth Map: A Zero-Shot Approach [6.805017878728801]
トレーニングを必要とせずに高密度な動きセグメンテーションを実現するための革新的なハイブリッド手法を提案する。
本手法は,基礎モデルを用いて各フレームのオブジェクト提案を自動的に生成することにより開始する。
最先端のモノクル深度推定モデルから得られた深度マップの統合は、光学的流れによって提供される運動キューを著しく向上させる。
論文 参考訳(メタデータ) (2024-06-27T02:11:33Z) - Improving Online Lane Graph Extraction by Object-Lane Clustering [106.71926896061686]
本稿では,局所レーングラフの推定精度を向上させるために,アーキテクチャと損失の定式化を提案する。
提案手法は,中心線をクラスタ中心とすることで,対象を中心線に割り当てることを学ぶ。
提案手法は既存の3次元オブジェクト検出手法の出力を用いて,大幅な性能向上を実現することができることを示す。
論文 参考訳(メタデータ) (2023-07-20T15:21:28Z) - Real-time Simultaneous Multi-Object 3D Shape Reconstruction, 6DoF Pose
Estimation and Dense Grasp Prediction [27.452365570403238]
シーン内の全てのオブジェクトの幾何学的・意味的な情報を提供する新しい手法を提案する。
提案手法は,オブジェクトの形状,ポーズ,予測の把握など,最先端の専用手法と比較して,競争性能が向上する。
論文 参考訳(メタデータ) (2023-05-16T15:03:20Z) - Once Detected, Never Lost: Surpassing Human Performance in Offline LiDAR
based 3D Object Detection [50.959453059206446]
本稿では,高性能なオフラインLiDARによる3Dオブジェクト検出を実現することを目的とする。
まず、経験豊富な人間のアノテータが、トラック中心の視点でオブジェクトに注釈を付けるのを観察する。
従来のオブジェクト中心の視点ではなく,トラック中心の視点で高性能なオフライン検出器を提案する。
論文 参考訳(メタデータ) (2023-04-24T17:59:05Z) - ALSO: Automotive Lidar Self-supervision by Occupancy estimation [70.70557577874155]
本稿では,ポイントクラウド上で動作している深層知覚モデルのバックボーンを事前学習するための自己教師型手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルをトレーニングすることである。
直感的には、もしネットワークがわずかな入力ポイントのみを考慮し、シーン表面を再構築できるなら、おそらく意味情報の断片をキャプチャする。
論文 参考訳(メタデータ) (2022-12-12T13:10:19Z) - Source-free Depth for Object Pop-out [113.24407776545652]
現代の学習に基づく手法は、野生での推論による有望な深度マップを提供する。
本研究では,オブジェクトの3次元前の「ポップアウト」を用いて,オブジェクトセグメンテーションの深度推定モデルを適用する。
8つのデータセットに対する我々の実験は、性能と一般化性の両方の観点から、我々の方法の利点を一貫して示している。
論文 参考訳(メタデータ) (2022-12-10T21:57:11Z) - Unsupervised Monocular Depth Perception: Focusing on Moving Objects [5.489557739480878]
本稿では,光度誤差を意図的に操作することで,効率よく困難に対処できることを示す。
まず、光学誤差マップにおいて、隠蔽または動的画素を統計的外れ値として考慮した外れ値マスキング手法を提案する。
外部マスキングにより、ネットワークはカメラと反対方向に移動する物体の深さをより正確に学習する。
論文 参考訳(メタデータ) (2021-08-30T08:45:02Z) - Analysis of voxel-based 3D object detection methods efficiency for
real-time embedded systems [93.73198973454944]
本稿では, ボクセルをベースとした2つの3次元物体検出手法について述べる。
実験の結果,これらの手法は入力点雲が遠距離にあるため,遠距離の小さな物体を検出できないことが確認できた。
この結果から,既存手法の計算のかなりの部分は,検出に寄与しないシーンの位置に着目していることが示唆された。
論文 参考訳(メタデータ) (2021-05-21T12:40:59Z) - SOON: Scenario Oriented Object Navigation with Graph-based Exploration [102.74649829684617]
人間のように3Dエンボディ環境のどこからでも言語ガイドされたターゲットに向かって移動する能力は、インテリジェントロボットの「聖杯」目標の1つです。
ほとんどのビジュアルナビゲーションベンチマークは、ステップバイステップの詳細な命令セットに導かれ、固定された出発点から目標に向かって移動することに焦点を当てている。
このアプローチは、人間だけが物体とその周囲がどのように見えるかを説明する現実世界の問題から逸脱し、ロボットにどこからでも航行を依頼する。
論文 参考訳(メタデータ) (2021-03-31T15:01:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。