論文の概要: FIReStereo: Forest InfraRed Stereo Dataset for UAS Depth Perception in Visually Degraded Environments
- arxiv url: http://arxiv.org/abs/2409.07715v1
- Date: Thu, 12 Sep 2024 02:51:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-13 18:02:00.528144
- Title: FIReStereo: Forest InfraRed Stereo Dataset for UAS Depth Perception in Visually Degraded Environments
- Title(参考訳): FIReStereo:視覚劣化環境におけるUAS深度知覚のためのフォレスト赤外ステレオデータセット
- Authors: Devansh Dhrafani, Yifei Liu, Andrew Jong, Ukcheol Shin, Yao He, Tyler Harp, Yaoyu Hu, Jean Oh, Sebastian Scherer,
- Abstract要約: 本稿では,自律型空中認識のための立体熱深度認識データセットを提案する。
このデータセットは、都市や森林で撮影されたステレオ熱画像、LiDAR、IMU、地上の真理深度マップで構成されている。
代表的なステレオ深度推定アルゴリズムをベンチマークし, 劣化条件下での性能について考察した。
- 参考スコア(独自算出の注目度): 11.865960842220629
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robust depth perception in visually-degraded environments is crucial for autonomous aerial systems. Thermal imaging cameras, which capture infrared radiation, are robust to visual degradation. However, due to lack of a large-scale dataset, the use of thermal cameras for unmanned aerial system (UAS) depth perception has remained largely unexplored. This paper presents a stereo thermal depth perception dataset for autonomous aerial perception applications. The dataset consists of stereo thermal images, LiDAR, IMU and ground truth depth maps captured in urban and forest settings under diverse conditions like day, night, rain, and smoke. We benchmark representative stereo depth estimation algorithms, offering insights into their performance in degraded conditions. Models trained on our dataset generalize well to unseen smoky conditions, highlighting the robustness of stereo thermal imaging for depth perception. We aim for this work to enhance robotic perception in disaster scenarios, allowing for exploration and operations in previously unreachable areas. The dataset and source code are available at https://firestereo.github.io.
- Abstract(参考訳): 視覚的に劣化した環境でのロバストな深度知覚は、自律飛行システムにとって不可欠である。
赤外線を捉えた熱画像カメラは、視界の劣化に対して堅牢である。
しかし、大規模なデータセットが欠如しているため、無人航空システム(UAS)の深度知覚にサーマルカメラを使用することは、ほとんど未発見のままである。
本稿では,自律型空中認識のための立体熱深度認識データセットを提案する。
このデータセットは、ステレオ熱画像、LiDAR、IMU、地上の真理深度マップからなり、都市部や森林部で昼、夜、雨、煙といった様々な条件下で撮影された。
代表的なステレオ深度推定アルゴリズムをベンチマークし, 劣化条件下での性能について考察した。
我々のデータセットでトレーニングされたモデルは、目に見えないスモーキーな条件によく一般化し、深度知覚のためのステレオ熱画像の堅牢性を強調します。
本研究は,災害シナリオにおけるロボットの知覚を高めることを目的としており,これまで到達できなかった地域での探査と運用を可能にしている。
データセットとソースコードはhttps://firestereo.github.io.comで公開されている。
関連論文リスト
- The ADUULM-360 Dataset -- A Multi-Modal Dataset for Depth Estimation in Adverse Weather [12.155627785852284]
この研究は、深度推定のための新しいマルチモーダルデータセットであるADUULM-360データセットを提示する。
ADUULM-360データセットは、既存の自動運転センサー、カメラ、ライダー、レーダーを全てカバーしている。
良質な気象条件と悪質な気象条件の多様なシーンを含む最初の深度推定データセットである。
論文 参考訳(メタデータ) (2024-11-18T10:42:53Z) - HazyDet: Open-source Benchmark for Drone-view Object Detection with Depth-cues in Hazy Scenes [31.411806708632437]
本稿では,ヘイズシーンにおけるドローンによる物体検出に適したデータセットHazyDetを紹介する。
自然環境と通常のシーンの両方から収集された383,000の現実世界のインスタンスを含んでいる。
深度と湿気条件の異なる物体スケールと明度に有意な変動を観測することにより,深度条件検出器を設計した。
論文 参考訳(メタデータ) (2024-09-30T00:11:40Z) - RIDERS: Radar-Infrared Depth Estimation for Robust Sensing [22.10378524682712]
逆気象条件は正確な深度推定に重大な課題をもたらす。
本研究では,ミリ波レーダと単眼赤外線サーマルカメラを融合させて,ロバストな距離推定手法を提案する。
本手法は、曖昧さと不一致の課題に対処することにより、異常な視覚的品質と正確な計量推定を実現する。
論文 参考訳(メタデータ) (2024-02-03T07:14:43Z) - ScatterNeRF: Seeing Through Fog with Physically-Based Inverse Neural
Rendering [83.75284107397003]
本稿では,シーンをレンダリングし,霧のない背景を分解するニューラルネットワークレンダリング手法であるScatterNeRFを紹介する。
本研究では,散乱量とシーンオブジェクトの非絡み合い表現を提案し,物理に着想を得た損失を伴ってシーン再構成を学習する。
マルチビューIn-the-Wildデータをキャプチャして,大規模な霧室内でのキャプチャを制御し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-05-03T13:24:06Z) - FLSea: Underwater Visual-Inertial and Stereo-Vision Forward-Looking
Datasets [8.830479021890575]
我々は,地中海と紅海の前方視像と視界慣性画像集合を収集した。
これらのデータセットは、障害物回避、視覚計測、3Dトラッキング、3Dローカライゼーションとマッピング(SLAM)、深さ推定など、いくつかの水中アプリケーションの開発に欠かせない。
論文 参考訳(メタデータ) (2023-02-24T17:39:53Z) - Beyond Visual Field of View: Perceiving 3D Environment with Echoes and
Vision [51.385731364529306]
本稿では,エコーとRGB画像を用いた3次元環境の知覚とナビゲーションに焦点を当てた。
特に、複数の方向から受信したエコーでRGB画像を融合して深度推定を行う。
本稿では,RGB像を補完する3次元構造について,エコーが包括的かつ包括的情報を提供することを示す。
論文 参考訳(メタデータ) (2022-07-03T22:31:47Z) - A Multi-purpose Real Haze Benchmark with Quantifiable Haze Levels and
Ground Truth [61.90504318229845]
本稿では,ハズフリー画像とその場でのハズ密度測定を併用した,最初の実画像ベンチマークデータセットを提案する。
このデータセットはコントロールされた環境で生成され、プロの煙発生装置がシーン全体を覆っている。
このデータセットのサブセットは、CVPR UG2 2022 チャレンジの Haze Track における Object Detection に使用されている。
論文 参考訳(メタデータ) (2022-06-13T19:14:06Z) - VPAIR -- Aerial Visual Place Recognition and Localization in Large-scale
Outdoor Environments [49.82314641876602]
VPAIRという新しいデータセットを提示します。
データセットは地上300メートル以上の高度で飛行する軽航空機に記録されている。
このデータセットは、様々なタイプの挑戦的な風景を、100km以上にわたってカバーしている。
論文 参考訳(メタデータ) (2022-05-23T18:50:08Z) - Self-Supervised Depth Completion for Active Stereo [55.79929735390945]
アクティブステレオシステムは、低コストで高品質な深度マップのため、ロボット産業で広く利用されている。
これらの深度センサーはステレオアーチファクトに悩まされており、密度の深い深度推定を提供していない。
本稿では, 高精度な深度マップを推定するアクティブステレオシステムのための, 自己監督型深度補完法を提案する。
論文 参考訳(メタデータ) (2021-10-07T07:33:52Z) - RVMDE: Radar Validated Monocular Depth Estimation for Robotics [5.360594929347198]
両眼視センサの固有剛性校正は正確な深度推定に不可欠である。
あるいは、単眼カメラは、深度推定の精度を犠牲にして制限を緩和し、厳しい環境条件下では課題が悪化する。
本研究は, 環境条件下での深度推定のために, 単眼カメラの細粒度データと融合した場合のレーダーからの粗い信号の有用性について検討する。
論文 参考訳(メタデータ) (2021-09-11T12:02:29Z) - Spatially-Varying Outdoor Lighting Estimation from Intrinsics [66.04683041837784]
本稿では,空間変動型屋外照明推定のためのニューラルネットワークSOLID-Netを提案する。
グローバルスカイ環境マップとワープ画像情報を組み合わせて,空間変動する局所照明環境マップを生成する。
合成データセットと実データセットの両方の実験は、SOLID-Netが以前の方法を大幅に上回っていることを示しています。
論文 参考訳(メタデータ) (2021-04-09T02:28:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。