論文の概要: Indoor Navigation Assistance for Visually Impaired People via Dynamic
SLAM and Panoptic Segmentation with an RGB-D Sensor
- arxiv url: http://arxiv.org/abs/2204.01154v1
- Date: Sun, 3 Apr 2022 20:19:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-05 16:56:15.664318
- Title: Indoor Navigation Assistance for Visually Impaired People via Dynamic
SLAM and Panoptic Segmentation with an RGB-D Sensor
- Title(参考訳): rgb-dセンサを用いたダイナミックスラムとパンオプティカルセグメンテーションによる視覚障害者の屋内ナビゲーション支援
- Authors: Wenyan Ou, Jiaming Zhang, Kunyu Peng, Kailun Yang, Gerhard Jaworek,
Karin M\"uller, Rainer Stiefelhagen
- Abstract要約: シーンの動的情報を検出するために,RGB-Dセンサを用いた支援システムを提案する。
画像から抽出されたスパース特徴点により、ユーザのポーズを推定することができる。
追跡された動的オブジェクトのポーズと速度を推定することができる。
- 参考スコア(独自算出の注目度): 25.36354262588248
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Exploring an unfamiliar indoor environment and avoiding obstacles is
challenging for visually impaired people. Currently, several approaches achieve
the avoidance of static obstacles based on the mapping of indoor scenes. To
solve the issue of distinguishing dynamic obstacles, we propose an assistive
system with an RGB-D sensor to detect dynamic information of a scene. Once the
system captures an image, panoptic segmentation is performed to obtain the
prior dynamic object information. With sparse feature points extracted from
images and the depth information, poses of the user can be estimated. After the
ego-motion estimation, the dynamic object can be identified and tracked. Then,
poses and speed of tracked dynamic objects can be estimated, which are passed
to the users through acoustic feedback.
- Abstract(参考訳): 身近な屋内環境の探索と障害物回避は視覚障害者にとって困難である。
現在,屋内シーンのマッピングに基づく静的障害物回避手法がいくつかある。
動的障害物を識別する問題を解決するため,RGB-Dセンサによるシーンの動的情報検出支援システムを提案する。
システムが画像をキャプチャすると、パノプティックセグメンテーションを行い、以前の動的オブジェクト情報を取得する。
画像から抽出したスパース特徴点と深度情報により、ユーザのポーズを推定することができる。
エゴモーション推定の後、動的オブジェクトを識別して追跡することができる。
そして、音響フィードバックによりユーザへ渡される、追跡された動的オブジェクトのポーズと速度を推定することができる。
関連論文リスト
- DATAP-SfM: Dynamic-Aware Tracking Any Point for Robust Structure from Motion in the Wild [85.03973683867797]
本稿では,スムーズなカメラ軌跡を推定し,野生のカジュアルビデオのための高密度点雲を得るための,簡潔でエレガントでロバストなパイプラインを提案する。
提案手法は,複雑な動的課題シーンにおいても,カメラポーズ推定による最先端性能を実現する。
論文 参考訳(メタデータ) (2024-11-20T13:01:16Z) - DOZE: A Dataset for Open-Vocabulary Zero-Shot Object Navigation in Dynamic Environments [28.23284296418962]
Zero-Shot Object Navigation (ZSON)は、エージェントが不慣れな環境で見えないオブジェクトを自律的に見つけ、アプローチすることを要求する。
ZSONアルゴリズムを開発するための既存のデータセットには、動的な障害、オブジェクトの多様性、シーンテキストが考慮されていない。
動的環境(DOZE)におけるオープンボキャブラリゼロショットオブジェクトナビゲーションのためのデータセットを提案する。
DOZEは18k以上のタスクを持つ10の高忠実な3Dシーンで構成されており、複雑な動的現実世界のシナリオを模倣することを目的としている。
論文 参考訳(メタデータ) (2024-02-29T10:03:57Z) - LEAP-VO: Long-term Effective Any Point Tracking for Visual Odometry [52.131996528655094]
本稿では,LEAP(Long-term Effective Any Point Tracking)モジュールについて述べる。
LEAPは、動的トラック推定のために、視覚的、トラック間、時間的キューと慎重に選択されたアンカーを革新的に組み合わせている。
これらの特徴に基づき,強靭な視力計測システムLEAP-VOを開発した。
論文 参考訳(メタデータ) (2024-01-03T18:57:27Z) - DORT: Modeling Dynamic Objects in Recurrent for Multi-Camera 3D Object
Detection and Tracking [67.34803048690428]
本稿では、この問題を解決するためにRecurrenT(DORT)の動的オブジェクトをモデル化することを提案する。
DORTは、重い計算負担を軽減する動き推定のために、オブジェクトワイズローカルボリュームを抽出する。
フレキシブルで実用的で、ほとんどのカメラベースの3Dオブジェクト検出器に差し込むことができる。
論文 参考訳(メタデータ) (2023-03-29T12:33:55Z) - HIDA: Towards Holistic Indoor Understanding for the Visually Impaired
via Semantic Instance Segmentation with a Wearable Solid-State LiDAR Sensor [25.206941504935685]
HIDAは、固体LiDARセンサを用いた3Dポイントクラウドインスタンスセグメンテーションに基づく軽量補助システムである。
システム全体は,3つのハードウェアコンポーネント,2つの対話的機能(障害物回避とオブジェクト探索),および音声ユーザインタフェースから構成される。
提案した3Dインスタンスセグメンテーションモデルは、ScanNet v2データセットで最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2021-07-07T12:23:53Z) - ERASOR: Egocentric Ratio of Pseudo Occupancy-based Dynamic Object
Removal for Static 3D Point Cloud Map Building [0.1474723404975345]
本稿では,pSeudo Occupancy-based dynamic object Removal の ERASOR, Egocentric RAtio という新しい静的マップ構築手法を提案する。
私たちのアプローチは、必然的に地面と接触している都市環境における最もダイナミックなオブジェクトの性質にその注意を向けます。
論文 参考訳(メタデータ) (2021-03-07T10:29:07Z) - Event-based Motion Segmentation with Spatio-Temporal Graph Cuts [51.17064599766138]
イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
論文 参考訳(メタデータ) (2020-12-16T04:06:02Z) - DS-Net: Dynamic Spatiotemporal Network for Video Salient Object
Detection [78.04869214450963]
時間情報と空間情報のより効果的な融合のための新しい動的時空間ネットワーク(DSNet)を提案する。
提案手法は最先端アルゴリズムよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-09T06:42:30Z) - Attentional Separation-and-Aggregation Network for Self-supervised
Depth-Pose Learning in Dynamic Scenes [19.704284616226552]
エピポーラプロジェクションからの自己監督によるラベルなしビデオからの深度とエゴモーションの学習は、視覚に基づくロボットの3D知覚の堅牢性と精度を向上させることができる。
しかし、エゴモーションによって計算される剛性プロジェクションは、移動物体の点などすべてのシーンポイントを表現できないため、これらの領域では誤ったガイダンスが導かれる。
本研究では,アテンショナル・アグリゲーション・ネットワーク(ASANet)を提案する。アテンショナル・アグリゲーション・ネットワークは,アテンション・メカニズムによってシーンの静的・動的特性を識別・抽出することができる。
論文 参考訳(メタデータ) (2020-11-18T16:07:30Z) - DOT: Dynamic Object Tracking for Visual SLAM [83.69544718120167]
DOTはインスタンスセグメンテーションとマルチビュー幾何を組み合わせて、動的オブジェクトのマスクを生成する。
実際にどのオブジェクトが動いているかを判断するために、DOTは、潜在的にダイナミックなオブジェクトの最初のインスタンスを抽出し、次に推定されたカメラモーションで、測光再投射誤差を最小限にして、そのようなオブジェクトを追跡する。
提案手法はORB-SLAM 2の精度とロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-09-30T18:36:28Z) - Moving object detection for visual odometry in a dynamic environment
based on occlusion accumulation [31.143322364794894]
RGB-D画像を用いた移動物体検出アルゴリズムを提案する。
提案アルゴリズムは,背景モデルの推定を必要としない。
二乗回帰重みを持つVO法として高密度視覚計測(DVO)を用いる。
論文 参考訳(メタデータ) (2020-09-18T11:01:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。