論文の概要: Deep Learning-Powered Visual SLAM Aimed at Assisting Visually Impaired Navigation
- arxiv url: http://arxiv.org/abs/2510.20549v1
- Date: Thu, 23 Oct 2025 13:35:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:18.022303
- Title: Deep Learning-Powered Visual SLAM Aimed at Assisting Visually Impaired Navigation
- Title(参考訳): 視覚障害者ナビゲーション支援を目的としたディープラーニング型ビジュアルSLAM
- Authors: Marziyeh Bamdad, Hans-Peter Hutter, Alireza Darvishy,
- Abstract要約: 提案するSELM-SLAM3は,SuperPointとLightGlueを統合した深層学習型ビジュアルSLAMフレームワークで,ロバストな特徴抽出とマッチングを行う。
本フレームワークは,低テクスチャシーンやファストモーションなどの難易度条件下での性能向上を実証し,視覚障害者のためのナビゲーション支援を開発するための信頼性の高いプラットフォームを提供する。
- 参考スコア(独自算出の注目度): 3.5174884177930448
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite advancements in SLAM technologies, robust operation under challenging conditions such as low-texture, motion-blur, or challenging lighting remains an open challenge. Such conditions are common in applications such as assistive navigation for the visually impaired. These challenges undermine localization accuracy and tracking stability, reducing navigation reliability and safety. To overcome these limitations, we present SELM-SLAM3, a deep learning-enhanced visual SLAM framework that integrates SuperPoint and LightGlue for robust feature extraction and matching. We evaluated our framework using TUM RGB-D, ICL-NUIM, and TartanAir datasets, which feature diverse and challenging scenarios. SELM-SLAM3 outperforms conventional ORB-SLAM3 by an average of 87.84% and exceeds state-of-the-art RGB-D SLAM systems by 36.77%. Our framework demonstrates enhanced performance under challenging conditions, such as low-texture scenes and fast motion, providing a reliable platform for developing navigation aids for the visually impaired.
- Abstract(参考訳): SLAM技術の進歩にもかかわらず、低テクスチャ、モーションブルー、挑戦的な照明といった困難な条件下でのロバストな操作は未解決の課題である。
このような状況は視覚障害者のための補助ナビゲーションなどの応用でよく見られる。
これらの課題は、ローカライゼーションの精度と安定性を損なうとともに、ナビゲーションの信頼性と安全性を低下させる。
これらの制限を克服するため,我々は,SuperPointとLightGlueを統合し,堅牢な特徴抽出とマッチングを行う深層学習型ビジュアルSLAMフレームワークSELM-SLAM3を提案する。
我々はTUM RGB-D, ICL-NUIM, TartanAirのデータセットを用いて, 多様なシナリオを特徴とするフレームワークの評価を行った。
SELM-SLAM3は従来のORB-SLAM3を平均87.84%上回り、最先端のRGB-D SLAMシステムを36.77%上回っている。
本フレームワークは,低テクスチャシーンやファストモーションなどの難易度条件下での性能向上を実証し,視覚障害者のためのナビゲーション支援を開発するための信頼性の高いプラットフォームを提供する。
関連論文リスト
- LIR-LIVO: A Lightweight,Robust LiDAR/Vision/Inertial Odometry with Illumination-Resilient Deep Features [8.095827028713684]
提案手法は、深層学習に基づく照明耐性特徴とLIVO(LiDAR-Inertial-Visual Odometry)を利用する。
LIR-LIVOは、高い計算コストで最先端(SOTA)の精度と堅牢性を達成する。
論文 参考訳(メタデータ) (2025-02-12T05:28:10Z) - ROVER: A Multi-Season Dataset for Visual SLAM [7.296917102476635]
ROVERは、様々な環境条件下で視覚SLAMアルゴリズムを評価するためのベンチマークデータセットである。
5つの屋外に39の録音があり、季節ごとの収集と様々な照明のシナリオがある。
その結果, ステレオ慣性・RGBD構成は, 照明条件下では良好であるが, SLAMシステムの多くは低照度・高植生環境では不十分であることがわかった。
論文 参考訳(メタデータ) (2024-12-03T15:34:00Z) - FlashSLAM: Accelerated RGB-D SLAM for Real-Time 3D Scene Reconstruction with Gaussian Splatting [14.130327598928778]
FlashSLAMは、3Dガウススプラッティングを有効かつ堅牢な3Dシーン再構築に活用する新しいSLAMアプローチである。
既存の3DGSベースのSLAMメソッドは、スパースビューの設定や大きなカメラの動きの間、しばしば不足する。
提案手法は,従来手法よりも平均追跡精度を最大92%向上させる。
論文 参考訳(メタデータ) (2024-12-01T05:44:38Z) - QueensCAMP: an RGB-D dataset for robust Visual SLAM [0.0]
本稿では,VSLAMシステムのロバスト性を評価するために設計された新しいRGB-Dデータセットを提案する。
データセットは、動的オブジェクト、動きのぼかし、様々な照明を備えた現実世界の屋内シーンで構成されている。
我々は、任意の画像にカメラ障害を注入するためのオープンソースのスクリプトを提供し、さらなるカスタマイズを可能にします。
論文 参考訳(メタデータ) (2024-10-16T12:58:08Z) - LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting [53.58528891081709]
都市景観におけるLiDARスキャンをリアルタイムかつ高忠実に再現するLiDAR-GSを提案する。
この手法は,公開可能な大規模シーンデータセットのレンダリングフレームレートと品質の両面において,最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-10-07T15:07:56Z) - Real-Time Multi-Scene Visibility Enhancement for Promoting Navigational Safety of Vessels Under Complex Weather Conditions [48.529493393948435]
この可視光カメラは、インテリジェントな水上輸送システムにおいて、海洋表面の容器に不可欠なイメージングセンサーとして登場した。
視覚画像の画質は、複雑な気象条件下での様々な劣化に必然的に悩まされる。
本研究では,異なる気象条件下で撮影された劣化画像を復元する汎用多場面可視性向上手法を開発した。
論文 参考訳(メタデータ) (2024-09-02T23:46:27Z) - NICER-SLAM: Neural Implicit Scene Encoding for RGB SLAM [111.83168930989503]
NICER-SLAMは、カメラポーズと階層的なニューラル暗黙マップ表現を同時に最適化するRGB SLAMシステムである。
近年のRGB-D SLAMシステムと競合する高密度マッピング,追跡,新しいビュー合成において,高い性能を示す。
論文 参考訳(メタデータ) (2023-02-07T17:06:34Z) - Low-Light Hyperspectral Image Enhancement [90.84144276935464]
本研究は,暗黒領域に隠された空間スペクトル情報を明らかにすることを目的とした,低照度HSI強調タスクに焦点を当てた。
ラプラシアのピラミッドの分解と再構成に基づいて, エンド・ツー・エンドのデータ駆動型低照度HSIエンハンスメント(HSIE)手法を開発した。
定量的評価と視覚効果の両面でのHSIEの有効性と効果を実証した。
論文 参考訳(メタデータ) (2022-08-05T08:45:52Z) - Toward Fast, Flexible, and Robust Low-Light Image Enhancement [87.27326390675155]
我々は、現実の低照度シナリオにおいて、高速でフレキシブルで頑健な鮮明化のための新しい自己校正イルミネーション(SCI)学習フレームワークを開発した。
カスケードパターンの計算負担を考慮すると、各ステージの結果の収束を実現する自己校正モジュールを構築する。
我々は,SCI固有の特性について,操作不感適応性やモデル非関係の一般性を含む包括的探索を行う。
論文 参考訳(メタデータ) (2022-04-21T14:40:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。