論文の概要: Exosense: A Vision-Centric Scene Understanding System For Safe Exoskeleton Navigation
- arxiv url: http://arxiv.org/abs/2403.14320v1
- Date: Thu, 21 Mar 2024 11:41:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-22 14:38:14.947444
- Title: Exosense: A Vision-Centric Scene Understanding System For Safe Exoskeleton Navigation
- Title(参考訳): Exosense:安全な外骨格ナビゲーションのための視覚中心のシーン理解システム
- Authors: Jianeng Wang, Matias Mattamala, Christina Kassab, Lintong Zhang, Maurice Fallon,
- Abstract要約: Exosenseは視覚中心のシーン理解システムである。
リッチでグローバルに一貫性のある標高マップを生成し、セマンティックおよび地形トラバーサビリティ情報の両方を取り入れている。
典型的な周期歩行歩行の課題に対するシステムの堅牢性を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Exoskeletons for daily use by those with mobility impairments are being developed. They will require accurate and robust scene understanding systems. Current research has used vision to identify immediate terrain and geometric obstacles, however these approaches are constrained to detections directly in front of the user and are limited to classifying a finite range of terrain types (e.g., stairs, ramps and level-ground). This paper presents Exosense, a vision-centric scene understanding system which is capable of generating rich, globally-consistent elevation maps, incorporating both semantic and terrain traversability information. It features an elastic Atlas mapping framework associated with a visual SLAM pose graph, embedded with open-vocabulary room labels from a Vision-Language Model (VLM). The device's design includes a wide field-of-view (FoV) fisheye multi-camera system to mitigate the challenges introduced by the exoskeleton walking pattern. We demonstrate the system's robustness to the challenges of typical periodic walking gaits, and its ability to construct accurate semantically-rich maps in indoor settings. Additionally, we showcase its potential for motion planning -- providing a step towards safe navigation for exoskeletons.
- Abstract(参考訳): 運動障害のある人の日常使用のための外骨格の開発が進められている。
正確で堅牢なシーン理解システムが必要です。
現在の研究では、視界を用いて地形と幾何学的障害物を識別しているが、これらのアプローチは利用者の直接の前方での検知に制約されており、限られた地形(例えば、階段、ランプ、平地など)の分類に制限されている。
本稿では,多彩でグローバルな標高マップを生成できる視覚中心の景観理解システムであるExosenseについて述べる。
視覚的SLAMポーズグラフに関連付けられた弾力性のあるAtlasマッピングフレームワークを備えており、Vision-Language Model (VLM)のオープン語彙の部屋ラベルが埋め込まれている。
デバイスの設計には、外骨格ウォーキングパターンによって引き起こされる課題を軽減するために、広視野(FoV)魚眼マルチカメラシステムが含まれる。
本研究では,典型的な周期歩行の課題に対するシステムの堅牢性と,屋内環境における正確な意味豊かな地図構築能力を示す。
さらに、運動計画の可能性も示しています -- エキソ骨格の安全なナビゲーションに向けての一歩です。
関連論文リスト
- AdaGlimpse: Active Visual Exploration with Arbitrary Glimpse Position and Scale [2.462953128215088]
Active Visual Exploration (AVE)は、観察(グランプ)を動的に選択するタスクである。
光ズーム機能を備えた既存のモバイルプラットフォームは、任意の位置とスケールを垣間見ることができる。
AdaGlimpseは、探索作業に適した強化学習アルゴリズムであるSoft Actor-Criticを使って、任意の位置と規模を垣間見る。
論文 参考訳(メタデータ) (2024-04-04T14:35:49Z) - VisionGPT: LLM-Assisted Real-Time Anomaly Detection for Safe Visual Navigation [3.837186701755568]
本稿では,画像ナビゲーションのためのゼロショット異常検出におけるLarge Language Modelsの可能性について検討する。
提案フレームワークは,カメラキャプチャフレーム内の任意の障害を含む異常を識別し,異常を強調した簡潔な音声記述を生成する。
論文 参考訳(メタデータ) (2024-03-19T03:55:39Z) - Floor extraction and door detection for visually impaired guidance [78.94595951597344]
未知の環境で障害物のない経路を見つけることは、視覚障害者や自律ロボットにとって大きなナビゲーション問題である。
コンピュータビジョンシステムに基づく新しいデバイスは、障害のある人が安全な環境で未知の環境でナビゲートすることの難しさを克服するのに役立つ。
本研究では,視覚障害者のためのナビゲーションシステムの構築につながるセンサとアルゴリズムの組み合わせを提案する。
論文 参考訳(メタデータ) (2024-01-30T14:38:43Z) - Autonomous Marker-less Rapid Aerial Grasping [5.892028494793913]
本稿では,自律的高速空中把握のための視覚ベースシステムを提案する。
検出対象の高密度点雲を生成し,幾何に基づく把握計画を行う。
飛行プラットフォームを用いた幾何学的把握技術の最初の利用例を示す。
論文 参考訳(メタデータ) (2022-11-23T16:25:49Z) - Coupling Vision and Proprioception for Navigation of Legged Robots [65.59559699815512]
我々は視覚と受容の相補的な強みを利用して、脚のあるロボットでポイントゴールナビゲーションを実現する。
車輪付きロボット(LoCoBot)のベースラインよりも優れた性能を示す。
また,センサーと計算能力を備えた四足歩行ロボットに,我々のシステムを実環境に展開することも示す。
論文 参考訳(メタデータ) (2021-12-03T18:59:59Z) - Augmented reality navigation system for visual prosthesis [67.09251544230744]
反応ナビゲーションと経路計画のソフトウェアを組み込んだ視覚補綴用拡張現実ナビゲーションシステムを提案する。
対象を地図上に配置し、対象の軌道を計画し、対象に示し、障害なく再計画する。
その結果,目標を達成するための時間と距離を減らし,障害物衝突の回数を大幅に減らし,航法性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-30T09:41:40Z) - Learning Perceptual Locomotion on Uneven Terrains using Sparse Visual
Observations [75.60524561611008]
この研究は、人中心の環境において、よく見られるバンプ、ランプ、階段の広い範囲にわたる知覚的移動を達成するために、スパースな視覚的観察の使用を活用することを目的としている。
まず、関心の均一な面を表すことのできる最小限の視覚入力を定式化し、このような外受容的・固有受容的データを統合した学習フレームワークを提案する。
本研究では, 平地を全方向歩行し, 障害物のある地形を前方移動させるタスクにおいて, 学習方針を検証し, 高い成功率を示す。
論文 参考訳(メタデータ) (2021-09-28T20:25:10Z) - Deep Learning for Embodied Vision Navigation: A Survey [108.13766213265069]
身体的視覚ナビゲーション」問題では、エージェントが3D環境をナビゲートする必要がある。
本稿では、総合的な文献調査を提供することで、視覚ナビゲーションの具体的分野における現在の研究の概要を確立することを試みる。
論文 参考訳(メタデータ) (2021-07-07T12:09:04Z) - Structured Scene Memory for Vision-Language Navigation [155.63025602722712]
視覚言語ナビゲーション(VLN)のための重要なアーキテクチャを提案する。
ナビゲーション中に知覚を正確に記憶できるほど区画化されている。
また、環境内の視覚的および幾何学的な手がかりを捉え、取り除く、構造化されたシーン表現としても機能する。
論文 参考訳(メタデータ) (2021-03-05T03:41:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。