論文の概要: LT-Exosense: A Vision-centric Multi-session Mapping System for Lifelong Safe Navigation of Exoskeletons
- arxiv url: http://arxiv.org/abs/2510.22164v1
- Date: Sat, 25 Oct 2025 05:23:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:14.895906
- Title: LT-Exosense: A Vision-centric Multi-session Mapping System for Lifelong Safe Navigation of Exoskeletons
- Title(参考訳): LT-Exosense:外骨格の生涯安全ナビゲーションのための視覚中心型マルチセッションマッピングシステム
- Authors: Jianeng Wang, Matias Mattamala, Christina Kassab, Nived Chebrolu, Guillaume Burger, Fabio Elnecave, Marine Petriaux, Maurice Fallon,
- Abstract要約: LT-Exosenseは視覚中心のマルチセッションマッピングシステムであり、外骨格ユーザーのための長期(半)自律ナビゲーションをサポートするように設計されている。
地中トラスレーザースキャンと比較して,5cm以下の平均点間誤差を実現するスケーラブルなマルチセッションマップを実証する。
- 参考スコア(独自算出の注目度): 2.3696699717752314
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Self-balancing exoskeletons offer a promising mobility solution for individuals with lower-limb disabilities. For reliable long-term operation, these exoskeletons require a perception system that is effective in changing environments. In this work, we introduce LT-Exosense, a vision-centric, multi-session mapping system designed to support long-term (semi)-autonomous navigation for exoskeleton users. LT-Exosense extends single-session mapping capabilities by incrementally fusing spatial knowledge across multiple sessions, detecting environmental changes, and updating a persistent global map. This representation enables intelligent path planning, which can adapt to newly observed obstacles and can recover previous routes when obstructions are removed. We validate LT-Exosense through several real-world experiments, demonstrating a scalable multi-session map that achieves an average point-to-point error below 5 cm when compared to ground-truth laser scans. We also illustrate the potential application of adaptive path planning in dynamically changing indoor environments.
- Abstract(参考訳): 自己バランス型外骨格は、低レベル障害を持つ個人に対して有望なモビリティソリューションを提供する。
信頼性の高い長期操作には、これらの外骨格は環境の変化に有効な知覚システムを必要とする。
本研究では,視覚中心のマルチセッションマッピングシステムであるLT-Exosenseを紹介した。
LT-Exosenseは、複数のセッションで空間知識を段階的に融合させ、環境変化を検出し、永続的なグローバルマップを更新することで、シングルセッションマッピング機能を拡張する。
この表現は知的経路計画を可能にし、新たに観測された障害に適応し、障害を取り除いた際に以前の経路を復元することができる。
実世界のいくつかの実験を通してLT-Exosenseを検証し,地中トラスレーザースキャンと比較して平均5cm未満のポイント・ツー・ポイント誤差を達成できるスケーラブルなマルチセッション・マップを実証した。
また,動的に変化する屋内環境における適応経路計画の適用可能性についても述べる。
関連論文リスト
- Rethinking the Embodied Gap in Vision-and-Language Navigation: A Holistic Study of Physical and Visual Disparities [56.68006021126077]
VLN-PEは、人間型、四足型、車輪型ロボットをサポートする物理的に現実的なVLNプラットフォームである。
われわれは,エゴ中心のVLN手法を,様々な技術パイプラインにまたがる物理ロボット設定において初めて評価した。
以上の結果から,ロボット観測空間の制限,環境光の変動,衝突や落下などの物理的課題による性能劣化が明らかとなった。
論文 参考訳(メタデータ) (2025-07-17T11:46:00Z) - Open-World Reinforcement Learning over Long Short-Term Imagination [91.28998327423295]
高次元オープンワールドにおける視覚的強化学習エージェントの訓練は、大きな課題を呈している。
LS-Imagineは、有限個の状態遷移ステップにおいて、イマジネーションの地平線を拡大する。
我々の手法は、MineDojoの最先端技術よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2024-10-04T17:17:30Z) - IN-Sight: Interactive Navigation through Sight [20.184155117341497]
IN-Sightは自己監督型パスプランニングの新しいアプローチである。
可逆性のスコアを計算し、セマンティックマップに組み込む。
障害物を正確に回避するために、IN-Sightはローカルプランナーを使用している。
論文 参考訳(メタデータ) (2024-08-01T07:27:54Z) - Exosense: A Vision-Based Scene Understanding System For Exoskeletons [0.0]
本稿では,自己バランス型外骨格のための視覚中心のシーン理解システムであるExosenseを紹介する。
実際の屋内シナリオでは、人間の脚に装着したExosenseとWandercraftのPersonal Exoskeletonをテストしました。
論文 参考訳(メタデータ) (2024-03-21T11:41:39Z) - LEAP-VO: Long-term Effective Any Point Tracking for Visual Odometry [52.131996528655094]
本稿では,LEAP(Long-term Effective Any Point Tracking)モジュールについて述べる。
LEAPは、動的トラック推定のために、視覚的、トラック間、時間的キューと慎重に選択されたアンカーを革新的に組み合わせている。
これらの特徴に基づき,強靭な視力計測システムLEAP-VOを開発した。
論文 参考訳(メタデータ) (2024-01-03T18:57:27Z) - Augmented reality navigation system for visual prosthesis [67.09251544230744]
反応ナビゲーションと経路計画のソフトウェアを組み込んだ視覚補綴用拡張現実ナビゲーションシステムを提案する。
対象を地図上に配置し、対象の軌道を計画し、対象に示し、障害なく再計画する。
その結果,目標を達成するための時間と距離を減らし,障害物衝突の回数を大幅に減らし,航法性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-30T09:41:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。