論文の概要: QueensCAMP: an RGB-D dataset for robust Visual SLAM
- arxiv url: http://arxiv.org/abs/2410.12520v1
- Date: Wed, 16 Oct 2024 12:58:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-17 13:43:55.204669
- Title: QueensCAMP: an RGB-D dataset for robust Visual SLAM
- Title(参考訳): QueensCAMP: 堅牢なVisual SLAMのためのRGB-Dデータセット
- Authors: Hudson M. S. Bruno, Esther L. Colombini, Sidney N. Givigi Jr,
- Abstract要約: 本稿では,VSLAMシステムのロバスト性を評価するために設計された新しいRGB-Dデータセットを提案する。
データセットは、動的オブジェクト、動きのぼかし、様々な照明を備えた現実世界の屋内シーンで構成されている。
我々は、任意の画像にカメラ障害を注入するためのオープンソースのスクリプトを提供し、さらなるカスタマイズを可能にします。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Visual Simultaneous Localization and Mapping (VSLAM) is a fundamental technology for robotics applications. While VSLAM research has achieved significant advancements, its robustness under challenging situations, such as poor lighting, dynamic environments, motion blur, and sensor failures, remains a challenging issue. To address these challenges, we introduce a novel RGB-D dataset designed for evaluating the robustness of VSLAM systems. The dataset comprises real-world indoor scenes with dynamic objects, motion blur, and varying illumination, as well as emulated camera failures, including lens dirt, condensation, underexposure, and overexposure. Additionally, we offer open-source scripts for injecting camera failures into any images, enabling further customization by the research community. Our experiments demonstrate that ORB-SLAM2, a traditional VSLAM algorithm, and TartanVO, a Deep Learning-based VO algorithm, can experience performance degradation under these challenging conditions. Therefore, this dataset and the camera failure open-source tools provide a valuable resource for developing more robust VSLAM systems capable of handling real-world challenges.
- Abstract(参考訳): VSLAM(Visual Simultaneous Localization and Mapping)は、ロボット工学アプリケーションの基本技術である。
VSLAMの研究は大きな進歩を遂げているが、照明不足、動的環境、動きのぼかし、センサーの故障といった困難な状況下での堅牢性は依然として難しい問題である。
これらの課題に対処するために,VSLAMシステムのロバスト性を評価するために設計された新しいRGB-Dデータセットを提案する。
このデータセットは、ダイナミックな物体、動きのぼかし、様々な照明を備えた現実世界の屋内シーンと、レンズの汚れ、凝縮、露出不足、露出過多など、エミュレートされたカメラの故障を含む。
さらに、任意の画像にカメラ障害を注入するためのオープンソースのスクリプトを提供し、研究コミュニティによるさらなるカスタマイズを可能にします。
実験により,従来のVSLAMアルゴリズムであるORB-SLAM2と,Deep LearningベースのVOアルゴリズムであるTartanVOが,これらの困難条件下で性能劣化を経験できることが実証された。
したがって、このデータセットと、カメラ障害のオープンソースツールは、現実の課題に対処できるより堅牢なVSLAMシステムを開発するための貴重なリソースを提供する。
関連論文リスト
- HUE Dataset: High-Resolution Event and Frame Sequences for Low-Light Vision [16.432164340779266]
低照度条件下での高分解能イベントとフレームシーケンスのコレクションであるHUEデータセットを紹介する。
私たちのデータセットには、屋内、都市景観、トワイライト、夜、運転、制御されたシナリオを含む106のシーケンスが含まれています。
我々は定性評価と定量的評価の両方を用いて、最先端の低照度化と事象に基づく画像再構成手法を評価する。
論文 参考訳(メタデータ) (2024-10-24T21:15:15Z) - Event-based Sensor Fusion and Application on Odometry: A Survey [2.3717744547851627]
イベントカメラは、高速モーション、低照度、広ダイナミックレンジを特徴とする環境において利点がある。
これらの特性は、特にロボット工学とコンピュータビジョンにおけるセンサー融合に有効なイベントカメラをレンダリングする。
論文 参考訳(メタデータ) (2024-10-20T19:32:25Z) - A Comprehensive Study of Object Tracking in Low-Light Environments [3.508168174653255]
本稿では,ノイズ,色不均衡,低コントラストが自動物体追跡装置に与える影響について検討する。
本稿では,低照度化と低照度化を両立させて追尾性能を向上させる手法を提案する。
実験結果から,低照度合成データセットを用いてトレーニングしたトラッカーは,バニラMixFormerとSiam R-CNNより優れていた。
論文 参考訳(メタデータ) (2023-12-25T17:20:57Z) - Implicit Event-RGBD Neural SLAM [54.74363487009845]
神経性SLAMは近年顕著な進歩を遂げている。
既存の手法は、非理想的なシナリオにおいて重大な課題に直面します。
本稿では,最初のイベントRGBD暗黙的ニューラルSLAMフレームワークであるEN-SLAMを提案する。
論文 参考訳(メタデータ) (2023-11-18T08:48:58Z) - Improving Lens Flare Removal with General Purpose Pipeline and Multiple
Light Sources Recovery [69.71080926778413]
フレアアーティファクトは、画像の視覚的品質と下流のコンピュータビジョンタスクに影響を与える。
現在の方法では、画像信号処理パイプラインにおける自動露光やトーンマッピングは考慮されていない。
本稿では、ISPを再検討し、より信頼性の高い光源回収戦略を設計することで、レンズフレア除去性能を向上させるソリューションを提案する。
論文 参考訳(メタデータ) (2023-08-31T04:58:17Z) - Event-based Simultaneous Localization and Mapping: A Comprehensive Survey [52.73728442921428]
ローカライゼーションとマッピングタスクのための非同期および不規則なイベントストリームの利点を利用する、イベントベースのvSLAMアルゴリズムのレビュー。
Paperは、イベントベースのvSLAMメソッドを、特徴ベース、ダイレクト、モーション補償、ディープラーニングの4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2023-04-19T16:21:14Z) - Seeing Through The Noisy Dark: Toward Real-world Low-Light Image
Enhancement and Denoising [125.56062454927755]
現実の低照度環境は通常、光やハードウェアの限界が不足しているため、視界が低く、騒音が重い。
我々は、RLED-Net(Real-world Low-light Enhancement & Denoising Network)と呼ばれる新しいエンドツーエンド手法を提案する。
論文 参考訳(メタデータ) (2022-10-02T14:57:23Z) - Multi Visual Modality Fall Detection Dataset [4.00152916049695]
転倒は、世界中の高齢者の怪我による死亡の主な原因の1つだ。
効果的なフォールの検出は、合併症や怪我のリスクを減らすことができる。
しかし、通常のRGBカメラは照明条件やプライバシーの懸念によって影響を受ける。
論文 参考訳(メタデータ) (2022-06-25T21:54:26Z) - Learning with Nested Scene Modeling and Cooperative Architecture Search
for Low-Light Vision [95.45256938467237]
低照度シーンから撮影された画像は、しばしば深刻な劣化に悩まされる。
低照度画像の視覚的品質を高めるために深層学習法が提案されている。
他の低照度ビジョンアプリケーションを扱うために、これらの拡張テクニックを拡張することは依然として困難である。
論文 参考訳(メタデータ) (2021-12-09T06:08:31Z) - Does Thermal data make the detection systems more reliable? [1.2891210250935146]
マルチモーダル協調フレームワークに基づく包括的検知システムを提案する。
このフレームワークは、RGB(ビジュアルカメラから)と熱(赤外線カメラから)の両方のデータから学習する。
実験の結果,精度の向上は名目上はいるものの,難易度と難易度は高いことがわかった。
論文 参考訳(メタデータ) (2021-11-09T15:04:34Z) - Object-based Illumination Estimation with Rendering-aware Neural
Networks [56.01734918693844]
個々の物体とその局所画像領域のRGBD外観から高速環境光推定手法を提案する。
推定照明により、仮想オブジェクトは実際のシーンと一貫性のあるシェーディングでARシナリオでレンダリングできる。
論文 参考訳(メタデータ) (2020-08-06T08:23:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。