論文の概要: WiSARD: A Labeled Visual and Thermal Image Dataset for Wilderness Search
and Rescue
- arxiv url: http://arxiv.org/abs/2309.04453v1
- Date: Fri, 8 Sep 2023 17:22:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-11 12:44:10.854329
- Title: WiSARD: A Labeled Visual and Thermal Image Dataset for Wilderness Search
and Rescue
- Title(参考訳): WiSARD: 荒野検索と救助のためのビジュアルおよびサーマルイメージデータセット
- Authors: Daniel Broyles, Christopher R. Hayner, Karen Leung
- Abstract要約: 約56,000個のラベル付き視覚画像と熱画像がUAV飛行から収集されたデータセットであるWiSARDを提示する。
WiSARDは、自動WiSAR操作のためのマルチモーダルセンサーで収集された最初の大規模データセットである。
- 参考スコア(独自算出の注目度): 4.8342038441006805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sensor-equipped unoccupied aerial vehicles (UAVs) have the potential to help
reduce search times and alleviate safety risks for first responders carrying
out Wilderness Search and Rescue (WiSAR) operations, the process of finding and
rescuing person(s) lost in wilderness areas. Unfortunately, visual sensors
alone do not address the need for robustness across all the possible terrains,
weather, and lighting conditions that WiSAR operations can be conducted in. The
use of multi-modal sensors, specifically visual-thermal cameras, is critical in
enabling WiSAR UAVs to perform in diverse operating conditions. However, due to
the unique challenges posed by the wilderness context, existing dataset
benchmarks are inadequate for developing vision-based algorithms for autonomous
WiSAR UAVs. To this end, we present WiSARD, a dataset with roughly 56,000
labeled visual and thermal images collected from UAV flights in various
terrains, seasons, weather, and lighting conditions. To the best of our
knowledge, WiSARD is the first large-scale dataset collected with multi-modal
sensors for autonomous WiSAR operations. We envision that our dataset will
provide researchers with a diverse and challenging benchmark that can test the
robustness of their algorithms when applied to real-world (life-saving)
applications.
- Abstract(参考訳): センサ搭載無人航空機(UAV)は、荒野で失われた人を見つけて救助するWiSAR(Wiserness Search and Rescue)操作を行う最初の応答者にとって、探索時間を短縮し、安全性のリスクを軽減する可能性がある。
残念なことに、視覚センサーだけでは、WiSAR操作が実施できるすべての可能な地形、天候、照明条件の堅牢性の必要性には対処できない。
マルチモーダルセンサー、特に視覚熱カメラの使用は、様々な操作条件下でのWiSAR UAVの実現に不可欠である。
しかし、荒野の状況によって生じる固有の課題のため、既存のデータセットベンチマークは自律WiSAR UAVのためのビジョンベースのアルゴリズムを開発するには不十分である。
この目的のために、WiSARDは、様々な地形、季節、天候、照明条件におけるUAV飛行から収集された約56,000の視覚的および熱的なイメージをラベル付けしたデータセットである。
我々の知る限りでは、WiSARDは自動WiSAR操作のためのマルチモーダルセンサーで収集された最初の大規模データセットである。
当社のデータセットは、実世界の(救命)アプリケーションに適用されたアルゴリズムの堅牢性をテストするための、多様で挑戦的なベンチマークを研究者に提供することを想定しています。
関連論文リスト
- FIReStereo: Forest InfraRed Stereo Dataset for UAS Depth Perception in Visually Degraded Environments [11.865960842220629]
本稿では,自律型空中認識のための立体熱深度認識データセットを提案する。
このデータセットは、都市や森林で撮影されたステレオ熱画像、LiDAR、IMU、地上の真理深度マップで構成されている。
代表的なステレオ深度推定アルゴリズムをベンチマークし, 劣化条件下での性能について考察した。
論文 参考訳(メタデータ) (2024-09-12T02:51:21Z) - Burnt area extraction from high-resolution satellite images based on
anomaly detection [1.8843687952462738]
本稿では,ベクトル量子化変分オートエンコーダ(VQ-VAE)を用いて,非教師なし領域抽出を行う。
VQ-VAEをエンド・ツー・エンドのフレームワークに統合し、専用の植生、水、明るさ指数を用いて、集中的な後処理を行う。
論文 参考訳(メタデータ) (2023-08-25T13:25:27Z) - Efficient Real-time Smoke Filtration with 3D LiDAR for Search and Rescue
with Autonomous Heterogeneous Robotic Systems [56.838297900091426]
スモークとダストは、搭載された知覚システムに依存するため、あらゆる移動ロボットプラットフォームの性能に影響を与える。
本稿では,重みと空間情報に基づく新しいモジュラー計算フィルタを提案する。
論文 参考訳(メタデータ) (2023-08-14T16:48:57Z) - Investigation of UAV Detection in Images with Complex Backgrounds and
Rainy Artifacts [20.20609511526255]
UAV検出のための視覚に基づく物体検出法が開発されている。
複雑な背景と雨のような気象要素を持つ画像におけるUAV検出は、まだ合理的に研究されていない。
この研究は、最先端のオブジェクト検出モデルのベンチマークにも重点を置いている。
論文 参考訳(メタデータ) (2023-05-25T19:54:33Z) - DensePose From WiFi [86.61881052177228]
WiFi信号の位相と振幅を24のヒト領域内の紫外線座標にマッピングするディープニューラルネットワークを開発した。
本モデルでは,複数の被験者の密集したポーズを,画像に基づくアプローチと同等の性能で推定することができる。
論文 参考訳(メタデータ) (2022-12-31T16:48:43Z) - SeaDroneSim: Simulation of Aerial Images for Detection of Objects Above
Water [4.625920569634467]
無人航空機(UAV)はその高速で多用途で知られている。
我々は、フォトリアリスティックな空中画像データセットを作成するために使用できる新しいベンチマークスイート、textittextbfSeaDroneSimを提案する。
実地画像に71mAPを印加し,BlueROV検出の実現可能性について検討した。
論文 参考訳(メタデータ) (2022-10-26T21:50:50Z) - LiDAR-guided object search and detection in Subterranean Environments [12.265807098187297]
この研究は、視覚と深度センサーの相補的な性質を利用して、より長距離での物体検出を支援するマルチモーダル情報を活用する。
提案された研究は、DARPA Subterranean Challengeのファイナルで収集されたデータセットに基づいて、地下の環境でANYmalの四足歩行ロボットを用いて徹底的に検証されている。
論文 参考訳(メタデータ) (2022-10-26T19:38:19Z) - NVRadarNet: Real-Time Radar Obstacle and Free Space Detection for
Autonomous Driving [57.03126447713602]
本稿では,自動車のRADARセンサを用いて動的障害物や乾燥可能な自由空間を検出するディープニューラルネットワーク(DNN)を提案する。
ネットワークは組み込みGPU上でリアルタイムよりも高速に動作し、地理的領域にわたって優れた一般化を示す。
論文 参考訳(メタデータ) (2022-09-29T01:30:34Z) - A Wireless-Vision Dataset for Privacy Preserving Human Activity
Recognition [53.41825941088989]
アクティビティ認識の堅牢性を改善するため,WiNN(WiFi-based and video-based neural network)が提案されている。
以上の結果から,WiViデータセットは一次需要を満足し,パイプライン内の3つのブランチはすべて,80%以上のアクティビティ認識精度を維持していることがわかった。
論文 参考訳(メタデータ) (2022-05-24T10:49:11Z) - A Multi-UAV System for Exploration and Target Finding in Cluttered and
GPS-Denied Environments [68.31522961125589]
複雑なGPSを用いた複雑な環境において,UAVのチームが協調して目標を探索し,発見するための枠組みを提案する。
UAVのチームは自律的にナビゲートし、探索し、検出し、既知の地図で散らばった環境でターゲットを見つける。
その結果, 提案方式は, 時間的コスト, 調査対象地域の割合, 捜索・救助ミッションの成功率などの面で改善されていることがわかった。
論文 参考訳(メタデータ) (2021-07-19T12:54:04Z) - Batch Exploration with Examples for Scalable Robotic Reinforcement
Learning [63.552788688544254]
BEE(Batch Exploration with Examples)は、重要状態の画像の少ない数の人間がガイドする状態空間の関連領域を探索する。
BEEは、シミュレーションと本物のフランカロボットの両方で、視覚ベースの操作に挑戦することができる。
論文 参考訳(メタデータ) (2020-10-22T17:49:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。