論文の概要: Edged USLAM: Edge-Aware Event-Based SLAM with Learning-Based Depth Priors
- arxiv url: http://arxiv.org/abs/2603.08150v1
- Date: Mon, 09 Mar 2026 09:28:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:15.735848
- Title: Edged USLAM: Edge-Aware Event-Based SLAM with Learning-Based Depth Priors
- Title(参考訳): Edged USLAM: 学習ベース奥行きを優先したエッジ対応イベントベースSLAM
- Authors: Şebnem Sarıözkan, Hürkan Şahin, Olaya Álvarez-Tuñón, Erdal Kayacan,
- Abstract要約: イベントカメラは、これらの問題を高時間分解能と高ダイナミックレンジで緩和する。
We present Edged USLAM, a hybrid visual-inertial system that extends Ultimate SLAM with a edge-aware front-end and a light depth module。
- 参考スコア(独自算出の注目度): 1.504944269180605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conventional visual simultaneous localization and mapping (SLAM) algorithms often fail under rapid motion, low illumination, or abrupt lighting transitions due to motion blur and limited dynamic range. Event cameras mitigate these issues with high temporal resolution and high dynamic range (HDR), but their sparse, asynchronous outputs complicate feature extraction and integration with other sensors; e.g. inertial measurement units (IMUs) and standard cameras. We present Edged USLAM, a hybrid visual-inertial system that extends Ultimate SLAM (USLAM) with an edge-aware front-end and a lightweight depth module. The frontend enhances event frames for robust feature tracking and nonlinear motion compensation, while the depth module provides coarse, region-of-interest (ROI)-based scene depth to improve motion compensation and scale consistency. Evaluations across public benchmarks and real-world unmanned air vehicle (UAV) flights demonstrate that performance varies significantly by scenario. For instance, event-only methods like point-line event-based visual-inertial odometry (PL-EVIO) or learning-based pipelines such as deep event-based visual odometry (DEVO) excel in highly aggressive or extreme HDR conditions. In contrast, Edged USLAM provides superior stability and minimal drift in slow or structured trajectories, ensuring consistently accurate localization on real flights under challenging illumination. These findings highlight the complementary strengths of event-only, learning-based, and hybrid approaches, while positioning Edged USLAM as a robust solution for diverse aerial navigation tasks.
- Abstract(参考訳): 従来の視覚的同時ローカライゼーションとマッピング (SLAM) アルゴリズムは、速い動き、低い照明、あるいは動きのぼやけと限られたダイナミックレンジによる急激な照明遷移で失敗することが多い。
イベントカメラは、これらの問題を高時間分解能と高ダイナミックレンジ(HDR)で緩和するが、そのスパースで非同期な出力は特徴抽出と他のセンサーとの統合を複雑にし、例えば慣性測定ユニット(IMU)と標準カメラである。
We present Edged USLAM, a hybrid visual-inertial system that extends Ultimate SLAM (USLAM) with a edge-aware front-end and a light depth module。
フロントエンドは、ロバストな特徴追跡と非線形動作補償のためのイベントフレームを強化し、奥行きモジュールは、粗い、関心の領域(ROI)ベースのシーン深さを提供し、動き補償とスケールの整合性を改善する。
公的なベンチマークと実世界の無人航空機(UAV)飛行による評価は、シナリオによって性能が著しく異なることを示している。
例えば、ポイントラインのイベントベースのビジュアル慣性オドメトリー(PL-EVIO)のようなイベントのみの手法や、ディープイベントベースのビジュアルオドメトリー(DEVO)のような学習ベースのパイプラインは、非常に攻撃的あるいは極端なHDR条件で優れている。
対照的に、Edged USLAMは、遅い軌道または構造軌道における安定性と最小限のドリフトを提供し、挑戦的な照明の下で実際の飛行の正確な位置を確実に確保する。
これらの知見は、イベントオンリー、学習ベース、ハイブリッドアプローチの補完的な長所を強調し、Edged USLAMを多様なナビゲーションタスクの堅牢なソリューションとして位置づけている。
関連論文リスト
- LEAR: Learning Edge-Aware Representations for Event-to-LiDAR Localization [15.308350522323588]
LEARは、エッジ構造と高密度事象深度流れ場を共同で推定し、知覚とモダリティの分断を橋渡しする。
いくつかの人気があり、挑戦的なデータセットにおいて、LEARは最高の先行メソッドよりも優れたパフォーマンスを達成している。
論文 参考訳(メタデータ) (2026-03-02T13:18:25Z) - HAD: Hierarchical Asymmetric Distillation to Bridge Spatio-Temporal Gaps in Event-Based Object Tracking [80.07224739976911]
イベントカメラは例外的な時間分解能と範囲(モード)を提供する
RGBカメラは高解像度でリッチテクスチャを捉えるのに優れていますが、イベントカメラは例外的な時間分解能とレンジ(モダル)を提供します。
論文 参考訳(メタデータ) (2025-10-22T13:15:13Z) - NOVA: Navigation via Object-Centric Visual Autonomy for High-Speed Target Tracking in Unstructured GPS-Denied Environments [56.35569661650558]
我々はNOVAというオブジェクト中心のフレームワークを導入し、ロバストな目標追跡と衝突認識ナビゲーションを可能にした。
グローバルマップを構築するのではなく、NOVAはターゲットの参照フレーム内での知覚、推定、制御を定式化する。
我々は,都市迷路や森林の小道,間欠的なGPS損失を伴う建物内の繰り返し遷移など,現実の挑戦的なシナリオにまたがってNOVAを検証する。
論文 参考訳(メタデータ) (2025-06-23T14:28:30Z) - ESVO2: Direct Visual-Inertial Odometry with Stereo Event Cameras [41.992980062962495]
イベントベースビジュアル・オドメトリーは、追跡とサブプロブレムのマッピング(典型的には並列)を解決することを目的としている
直接パイプライン上に,イベントベースのステレオビジュアル慣性オドメトリーシステムを構築した。
結果として得られるシステムは、現代の高解像度のイベントカメラでうまくスケールする。
論文 参考訳(メタデータ) (2024-10-12T05:35:27Z) - Implicit Event-RGBD Neural SLAM [54.74363487009845]
神経性SLAMは近年顕著な進歩を遂げている。
既存の手法は、非理想的なシナリオにおいて重大な課題に直面します。
本稿では,最初のイベントRGBD暗黙的ニューラルSLAMフレームワークであるEN-SLAMを提案する。
論文 参考訳(メタデータ) (2023-11-18T08:48:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。